打開(kāi)手機(jī)掃描二維碼
即可在手機(jī)端查看
具有變革性潛力的多模態(tài)模型在醫(yī)療領(lǐng)域的快速發(fā)展和廣泛應(yīng)用,標(biāo)志著醫(yī)療人工智能進(jìn)入了一個(gè)全新的大模型時(shí)代,通過(guò)整合和分析大量的文本、圖像和語(yǔ)音數(shù)據(jù)等,在預(yù)防、診斷和治療各個(gè)環(huán)節(jié)推動(dòng)了醫(yī)療服務(wù)的個(gè)性化和精準(zhǔn)化。然而,隨著大型多模態(tài)模型在醫(yī)療健康領(lǐng)域的快速發(fā)展和應(yīng)用,醫(yī)療領(lǐng)域的監(jiān)管機(jī)構(gòu)和傳統(tǒng)規(guī)則體系也面臨著全新挑戰(zhàn)。其中,虛假信息、“情感操縱”、算法偏見(jiàn)和侵權(quán)責(zé)任的模糊都是亟待解決的核心問(wèn)題。為應(yīng)對(duì)這些挑戰(zhàn),一是落實(shí)人工智能全生命周期安全措施,打造可信的醫(yī)療大模型應(yīng)用;二是踐行倫理嵌入設(shè)計(jì)的AI倫理治理理念,實(shí)現(xiàn)醫(yī)療大模型價(jià)值對(duì)齊;三是明確醫(yī)療大模型的產(chǎn)品責(zé)任規(guī)則的適用,確保對(duì)受害人的有效救濟(jì)。共同推進(jìn)醫(yī)療人工智能安全和有效應(yīng)用,為構(gòu)建更加健康、公正和智能的醫(yī)療生態(tài)系統(tǒng)作出貢獻(xiàn)。
多模態(tài)是目前人工智能的進(jìn)步方向,多模態(tài)模型的相關(guān)研究和應(yīng)用繼續(xù)快速發(fā)展。除了傳統(tǒng)的圖文模型外,多模態(tài)模型研究還拓展到了音頻、視頻等其他模態(tài)中,開(kāi)發(fā)出能同時(shí)處理圖像、視頻和音頻信號(hào)的Audio-Visual BERT模型,為L(zhǎng)MM在更廣泛的應(yīng)用場(chǎng)景中發(fā)揮作用奠定了技術(shù)基礎(chǔ),在豐富人與大模型的互動(dòng)模式方面起著關(guān)鍵作用。如何將大型多模態(tài)模型應(yīng)用到醫(yī)療領(lǐng)域是當(dāng)前人工智能研究和應(yīng)用的熱點(diǎn)。現(xiàn)有研究中,常利用LMM綜合多種數(shù)據(jù)類型來(lái)提高診斷的準(zhǔn)確性、優(yōu)化治療方法、提升患者護(hù)理質(zhì)量以及加速醫(yī)學(xué)研究。據(jù)預(yù)測(cè),多模態(tài)大模型將廣泛應(yīng)用于醫(yī)療保健、科學(xué)研究、公共衛(wèi)生和藥物開(kāi)發(fā)等領(lǐng)域。
盡管大型多模態(tài)模型在醫(yī)療領(lǐng)域的應(yīng)用前景非常廣闊,但同時(shí)也面臨著數(shù)據(jù)隱私、算法透明度、模型解釋性等倫理和技術(shù)挑戰(zhàn)。為應(yīng)對(duì)這一挑戰(zhàn),世界衛(wèi)生組織(WHO)發(fā)布Ethics And Governance Of Artificial Intelligence For Health. Guidance On Large Multi-Modal Models(以下簡(jiǎn)稱《指南》)旨在針對(duì)LMM應(yīng)用中的問(wèn)題作出回應(yīng),為政府、科技公司和醫(yī)療機(jī)構(gòu)提供具體指導(dǎo)建議。未來(lái),隨著技術(shù)的進(jìn)步和相關(guān)法規(guī)、標(biāo)準(zhǔn)的完善,預(yù)計(jì)多模態(tài)模型將在醫(yī)療領(lǐng)域發(fā)揮更大的作用,為患者提供更優(yōu)質(zhì)的醫(yī)療服務(wù),并加速醫(yī)學(xué)科學(xué)的進(jìn)步。
大型多模態(tài)模型在醫(yī)療領(lǐng)域的 應(yīng)用現(xiàn)狀與發(fā)展方向 一大應(yīng)用方向便是診斷和臨床護(hù)理,旨在從復(fù)雜病例管理和常規(guī)診斷中減輕醫(yī)療服務(wù)提供者的工作量。幾家大型科技企業(yè)正在將其通用LMM調(diào)整為可輔助臨床診斷和護(hù)理的LMM。其中,來(lái)自Google Research的多模態(tài)模型Med-PaLM-2便是專為醫(yī)學(xué)領(lǐng)域設(shè)計(jì),也是第一個(gè)在美國(guó)醫(yī)學(xué)執(zhí)照考試(USMLE)風(fēng)格問(wèn)題中超過(guò)及格分?jǐn)?shù)(>60%)的人工智能系統(tǒng)。在一次醫(yī)療問(wèn)題研究中,Med-PaLM-2需要理解癥狀,并檢查患者的檢查結(jié)果,對(duì)可能的診斷結(jié)果進(jìn)行復(fù)雜的推理,最終選出最合適的疾病、檢查或治療的答案。與臨床醫(yī)生對(duì)照組的比對(duì)下,Med-PaLM-2的答案在八個(gè)維度上都優(yōu)于人類醫(yī)生的答案。 另一個(gè)重要的應(yīng)用方向是協(xié)助醫(yī)護(hù)人員指導(dǎo)患者,使得醫(yī)患溝通更加順暢。首先,LMM能夠根據(jù)患者的具體病情、病史以及其他相關(guān)信息,生成個(gè)性化的健康教育材料和建議,幫助患者更好地理解他們的健康狀況,提高他們的自我管理能力。其次,通過(guò)訓(xùn)練,LMM能夠理解并回答患者關(guān)于疾病、治療程序、藥物使用等方面的常見(jiàn)問(wèn)題。這不僅可以減輕醫(yī)護(hù)人員的工作負(fù)擔(dān),也可以為患者提供即時(shí)的信息支持。此外,LMM還可以通過(guò)分析患者的語(yǔ)言和情緒來(lái)提供溝通建議,幫助醫(yī)護(hù)人員更有效地與患者進(jìn)行交流。LMM還可以分析從可穿戴設(shè)備或家庭醫(yī)療設(shè)備收集的數(shù)據(jù),監(jiān)控患者狀態(tài),及時(shí)發(fā)現(xiàn)患者狀況的變化。美國(guó)的一項(xiàng)研究發(fā)現(xiàn),在回答患者在線論壇上提出的病情相關(guān)問(wèn)題時(shí),由ChatGPT驅(qū)動(dòng)的聊天機(jī)器人比合格的醫(yī)生表現(xiàn)得更好,近八成情況下聊天機(jī)器人的回答更能獲得評(píng)估人員的青睞。 此外,利用語(yǔ)言模型的自動(dòng)化來(lái)處理優(yōu)化文書(shū)等行政工作也是應(yīng)用方向之一。2018年美國(guó)醫(yī)學(xué)協(xié)會(huì)的一項(xiàng)調(diào)查顯示,70%的一線醫(yī)生認(rèn)為日常的文書(shū)工作如患者電子健康記錄擠占了日常工作時(shí)間,在很大程度上加劇了醫(yī)生的職業(yè)倦怠感。而以GPT-4為代表的多模態(tài)的生成式人工智能,有望將醫(yī)生從日常工作中最煩瑣、負(fù)擔(dān)最沉重的部分解放出來(lái)。在相關(guān)實(shí)驗(yàn)中,GPT-4能夠“聽(tīng)懂”醫(yī)患的對(duì)話記錄,并在此基礎(chǔ)上以病歷筆記的形式進(jìn)行總結(jié)后錄入電子健康記錄系統(tǒng)。對(duì)于許多專注于開(kāi)發(fā)自動(dòng)化臨床文書(shū)產(chǎn)品的公司來(lái)說(shuō),以GPT-4為代表的多模態(tài)生成式人工智能將成為一項(xiàng)顛覆性的技術(shù)。 大型多模態(tài)模型常被認(rèn)為可能給包括醫(yī)療領(lǐng)域在內(nèi)的經(jīng)濟(jì)社會(huì)發(fā)展帶來(lái)新的機(jī)遇,但也有悲觀者認(rèn)為L(zhǎng)MM可能帶來(lái)巨大的風(fēng)險(xiǎn)隱患,最終造成災(zāi)難性后果。就目前而言,LMM的發(fā)展應(yīng)用正在帶來(lái)多方面的風(fēng)險(xiǎn)和挑戰(zhàn)?!吨改稀穼?duì)數(shù)字鴻溝的現(xiàn)象作出預(yù)言,提醒世人警惕算法偏見(jiàn),提升醫(yī)療領(lǐng)域應(yīng)用LMM的安全性與公眾信任度。本部分將重點(diǎn)聚焦于LMM的安全風(fēng)險(xiǎn)和治理挑戰(zhàn),以及發(fā)生事故后侵權(quán)責(zé)任分配的倫理困境。 2.1 LMM與醫(yī)療的結(jié)合,對(duì)可靠性、 準(zhǔn)確性問(wèn)題提出了更高的要求 但在醫(yī)療領(lǐng)域中,LMM的運(yùn)用則對(duì)可靠性、準(zhǔn)確性問(wèn)題提出了更高的要求,一旦LMM的運(yùn)用出現(xiàn)問(wèn)題時(shí),可能引發(fā)嚴(yán)重的倫理挑戰(zhàn)。例如,診斷輔助工具或治療建議LMM的準(zhǔn)確性不足,可能導(dǎo)致醫(yī)生基于錯(cuò)誤的信息作出醫(yī)療決策。這不僅可能對(duì)患者的健康造成直接的負(fù)面影響,而且還可能削弱醫(yī)生的專業(yè)判斷力。此外,如果LMM系統(tǒng)在設(shè)計(jì)或訓(xùn)練數(shù)據(jù)上存在偏見(jiàn),可能會(huì)錯(cuò)誤地診斷或治療某些人群,如系統(tǒng)主要用某一種族的數(shù)據(jù)訓(xùn)練,可能無(wú)法準(zhǔn)確地診斷其他種族的疾病,變相加劇醫(yī)療不平等。 現(xiàn)有的醫(yī)療大模型在測(cè)試中暴露出“不可靠”的跡象。2022年秋天,大模型AI達(dá)芬奇3在完成一次患者病歷筆記任務(wù)中便出現(xiàn)了“幻覺(jué)”。在病歷中,達(dá)芬奇3寫道:“患者體重嚴(yán)重不足(BMI14.8)……”但實(shí)際的醫(yī)患對(duì)話中并未提及有關(guān)患者體重的任何數(shù)據(jù),因此達(dá)芬奇3實(shí)際上僅憑經(jīng)驗(yàn)性猜測(cè)去編造并給出看似可信的BMI數(shù)值。在醫(yī)學(xué)領(lǐng)域中,信息輸出不準(zhǔn)確是一個(gè)嚴(yán)重問(wèn)題。 2.2 醫(yī)療AI大模型存在價(jià)值對(duì)齊問(wèn)題 在醫(yī)療領(lǐng)域,大模型前沿技術(shù)的使用已經(jīng)暴露出其伴隨著風(fēng)險(xiǎn)和挑戰(zhàn),尤其是當(dāng)它們的行為與人類的最佳利益和福祉背道而馳時(shí)。在實(shí)踐中,科學(xué)家發(fā)現(xiàn)AI已有能力對(duì)人類實(shí)施如“情感操縱”等有害行為,一名患有焦慮癥的比利時(shí)患者與機(jī)器人密集對(duì)話之后選擇自殺的悲劇為我們敲響了警鐘。醫(yī)療健康領(lǐng)域直接關(guān)系到人們的生命健康,涉及敏感的個(gè)人數(shù)據(jù)和生命決策,因此,在醫(yī)療健康場(chǎng)景下,實(shí)現(xiàn)大模型的價(jià)值對(duì)齊變得尤為重要。如果AI系統(tǒng)的建議與醫(yī)療倫理原則不符,可能會(huì)造成醫(yī)療決策的錯(cuò)誤導(dǎo)向。例如,基于偏見(jiàn)的數(shù)據(jù)訓(xùn)練得出的診斷模型可能對(duì)某些族群的疾病診斷不準(zhǔn)確,導(dǎo)致錯(cuò)誤治療甚至延誤治療,隨著數(shù)據(jù)集不斷擴(kuò)大,LMM中編碼的偏見(jiàn)可能自動(dòng)地?cái)U(kuò)散至整個(gè)醫(yī)療保健系統(tǒng)。此外,LMM的廣泛應(yīng)用,可能加劇醫(yī)療資源的不平等分配?!吨改稀分赋鲇嗛哃MM的費(fèi)用門檻可能導(dǎo)致不同國(guó)家、不同地區(qū)、不同民族無(wú)法平等地獲取LMM醫(yī)療資源。 價(jià)值對(duì)齊是系統(tǒng)工程,對(duì)算法歧視、能力涌現(xiàn)、技術(shù)濫用等突出問(wèn)題都有所回應(yīng)。未能在大模型設(shè)計(jì)開(kāi)發(fā)和部署過(guò)程中實(shí)現(xiàn)價(jià)值對(duì)齊,則LMM在醫(yī)療領(lǐng)域的后續(xù)使用中可能影響醫(yī)患之間的信任關(guān)系,產(chǎn)生歧視、偏見(jiàn)、隱私泄露等倫理問(wèn)題。 2.3 損害結(jié)果發(fā)生時(shí)的責(zé)任分配問(wèn)題 尚不明確,倫理問(wèn)責(zé)的缺失增加 LMM系統(tǒng)性風(fēng)險(xiǎn) 一方面,技術(shù)復(fù)雜性導(dǎo)致責(zé)任模糊。AI系統(tǒng)的決策過(guò)程往往基于復(fù)雜的算法和大數(shù)據(jù)分析,這種“黑箱”特性使得追溯具體決策邏輯變得困難。當(dāng)AI推薦的醫(yī)療決策導(dǎo)致患者受損時(shí),界定是技術(shù)故障、算法缺陷,還是數(shù)據(jù)問(wèn)題導(dǎo)致的錯(cuò)誤變得不明確。另一方面,多方參與也使責(zé)任劃分難上加難。醫(yī)療AI系統(tǒng)的開(kāi)發(fā)、部署和使用涉及多個(gè)參與方,包括但不限于AI技術(shù)供應(yīng)商、醫(yī)療機(jī)構(gòu)、醫(yī)護(hù)人員和患者,AI技術(shù)供應(yīng)商又可以細(xì)分為數(shù)據(jù)采集端、算法設(shè)計(jì)端、故障測(cè)試端等,認(rèn)定每個(gè)參與方在系統(tǒng)開(kāi)發(fā)和應(yīng)用過(guò)程中扮演不同角色是關(guān)鍵。這些問(wèn)題都對(duì)現(xiàn)有法律體系提出了挑戰(zhàn)。 醫(yī)療領(lǐng)域的大型多模態(tài)模型 治理進(jìn)路 3.1 落實(shí)大模型全生命周期安全措施, 打造可信的醫(yī)療大模型應(yīng)用 AI RMF為人工智能系統(tǒng)的全生命周期提供了一個(gè)全面的風(fēng)險(xiǎn)管理方法,這對(duì)于中國(guó)在制定或優(yōu)化AI相關(guān)政策和標(biāo)準(zhǔn)具有一定借鑒意義——整個(gè)大模型AI的生命周期都需采取與現(xiàn)階段相適應(yīng)的措施。從行業(yè)實(shí)踐來(lái)看,在預(yù)訓(xùn)練階段,主要是針對(duì)性掃除數(shù)據(jù)問(wèn)題,重點(diǎn)是減少訓(xùn)練數(shù)據(jù)中虛假文本數(shù)據(jù)的數(shù)量,提高醫(yī)療領(lǐng)域?qū)I(yè)文本的質(zhì)量。在模型發(fā)布之前邀請(qǐng)專業(yè)人員開(kāi)展對(duì)抗測(cè)試(Adversarial Testing)或紅隊(duì)測(cè)試(Red Teaming),對(duì)模型發(fā)起各種攻擊,以發(fā)現(xiàn)潛在問(wèn)題并予以解決。例如,在GPT-4發(fā)布之前,OpenAI公司聘請(qǐng)了50多位各領(lǐng)域?qū)W者和專家對(duì)其模型進(jìn)行測(cè)試,幫助發(fā)現(xiàn)其模型在不準(zhǔn)確信息(幻覺(jué))、有害內(nèi)容、虛假信息等方面的問(wèn)題。在用戶交互階段,實(shí)施內(nèi)容管控,對(duì)輸出信息的真實(shí)性加以驗(yàn)證并識(shí)別利用醫(yī)療模型作惡的有害提問(wèn)。此外,開(kāi)發(fā)對(duì)AI生成內(nèi)容的檢測(cè)識(shí)別技術(shù),通過(guò)訓(xùn)練專門的AI模型來(lái)識(shí)別生成式AI生產(chǎn)的文本、圖像、音頻、視頻等各類合成內(nèi)容,確保內(nèi)容的來(lái)源或真實(shí)性。在此思路下,以Deeptrace Labs為代表的新興公司對(duì)深度偽造技術(shù)提供有效的檢測(cè)工具和服務(wù),確保數(shù)字內(nèi)容的真實(shí)性和可信度。 3.2 踐行倫理嵌入設(shè)計(jì)的AI倫理治理理念, 實(shí)現(xiàn)醫(yī)療大模型價(jià)值對(duì)齊 對(duì)于大模型而言,價(jià)值對(duì)齊是實(shí)現(xiàn)“倫理嵌入設(shè)計(jì)”的一個(gè)核心思路,行業(yè)在實(shí)踐中多措并舉保障AI價(jià)值對(duì)齊的實(shí)現(xiàn)。在實(shí)踐中,目前業(yè)界將AI價(jià)值對(duì)齊作為對(duì)AI大模型進(jìn)行安全治理的重要思路,并在技術(shù)上取得了客觀的效果,在很大程度上確保大模型部署和使用中的安全與信任。AI對(duì)齊(AI alignment)作為大模型研發(fā)過(guò)程中的一個(gè)重要環(huán)節(jié),目前主要有兩種實(shí)現(xiàn)方式。一種是自下而上的思路,也就是人類反饋的強(qiáng)化學(xué)習(xí),需要用價(jià)值對(duì)齊的問(wèn)題對(duì)模型進(jìn)行精調(diào),并由人類訓(xùn)練員對(duì)模型的輸出進(jìn)行評(píng)分,再通過(guò)強(qiáng)化學(xué)習(xí)的方式讓模型學(xué)習(xí)人類的價(jià)值和偏好。在技術(shù)上,人類反饋強(qiáng)化學(xué)習(xí)(RLHF)包括初始模型訓(xùn)練、收集人類反饋、強(qiáng)化學(xué)習(xí)、迭代過(guò)程等步驟。另一種是自上而下的思路,核心是把一套倫理原則輸入給模型,并通過(guò)技術(shù)方法讓模型對(duì)自己的輸出進(jìn)行評(píng)分,以使其輸出符合這些原則。例如,OpenAI采取了人類反饋強(qiáng)化學(xué)習(xí)(RLHF)的對(duì)齊方法,Anthropic采取了AI反饋強(qiáng)化學(xué)習(xí)(RLAIF)的對(duì)齊方法即所謂的“原則型AI”(constitutional AI),這些AI對(duì)齊方法殊途同歸,都致力于將大模型打造成為安全、真誠(chéng)、有用、無(wú)害的智能助手。以RLHF為例,RLHF在改進(jìn)模型性能、提高模型的適應(yīng)性、減少模型的偏見(jiàn)、增強(qiáng)模型的安全性等方面具有顯著優(yōu)勢(shì),包括減少模型在未來(lái)生產(chǎn)有害內(nèi)容的可能性。OpenAI將RLHF算法發(fā)揚(yáng)光大,ChatGPT借此取得成功,能夠在很大程度上輸出有用的、可信的、無(wú)害的內(nèi)容。除此之外,產(chǎn)業(yè)界還在探索對(duì)抗測(cè)試(紅隊(duì)測(cè)試)、模型評(píng)估、可解釋AI方法、倫理審查、第三方服務(wù)等多元化的安全和治理措施,共同確保負(fù)責(zé)任AI的發(fā)展。 人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)雖然被證明是一個(gè)有效的方法,但存在可拓展性差、受限于訓(xùn)練員的主觀偏好、長(zhǎng)期價(jià)值對(duì)齊難以保證等問(wèn)題。RLHF方法通過(guò)引入人類專家的參與和評(píng)估,不僅幫助提升了模型的性能,而且讓模型變得更加安全可靠。但單純依靠人類反饋來(lái)訓(xùn)練AI系統(tǒng)是非常低效的,因此,在后續(xù)的技術(shù)發(fā)展中,逐漸開(kāi)發(fā)出了可擴(kuò)展監(jiān)督(scalable oversight),利用AI的自我監(jiān)督以及將AI作為人類監(jiān)督者的助手更高效地對(duì)模型進(jìn)行優(yōu)化改進(jìn)。破解大語(yǔ)言模型的“黑箱”屬性,提高技術(shù)透明度,嘗試用AI大模型解釋大模型的方式,誘導(dǎo)其逐步呈現(xiàn)其邏輯。成立治理組織也是關(guān)鍵一環(huán),除了設(shè)立倫理審查委員會(huì)外,人工智能領(lǐng)域的領(lǐng)頭企業(yè)還嘗試設(shè)立任務(wù)劃分更為具體的安全責(zé)任團(tuán)隊(duì),如OpenAI于2024年5月成立了安全與安保委員會(huì)(Safety and Security Committee)。此外,像網(wǎng)絡(luò)安全領(lǐng)域的白帽黑客那樣,AI治理也可以依靠社會(huì)力量來(lái)發(fā)現(xiàn)、識(shí)別、解決AI模型的安全和倫理漏洞,諸如算法歧視獎(jiǎng)勵(lì)、模型漏洞獎(jiǎng)勵(lì)等眾包方式得到重視。 雖然AI價(jià)值對(duì)齊在技術(shù)上取得了一定的效果,但人們對(duì)最基礎(chǔ)的AI價(jià)值問(wèn)題依然沒(méi)有形成共識(shí):如何確立用以規(guī)范人工智能的一套統(tǒng)一的人類價(jià)值。目前看,選擇哪些原則可能完全取決于研究人員的主觀判斷和價(jià)值觀。而且考慮到我們生活在一個(gè)人們擁有多元文化、背景、資源和信仰的世界中,AI價(jià)值對(duì)齊需要考慮不同社會(huì)和群體的不同價(jià)值和道德規(guī)范。一是確保醫(yī)療數(shù)據(jù)集多元化,用于訓(xùn)練AI系統(tǒng)的數(shù)據(jù)集需具有代表性,涵蓋不同種族、性別、年齡和文化背景的患者信息。二是建立由多文化背景的倫理學(xué)家、社會(huì)學(xué)家、醫(yī)療專業(yè)人員和患者代表組成的審查團(tuán)隊(duì),完全讓研究人員自行選擇這些價(jià)值是不切實(shí)際的,需要更多的社會(huì)參與來(lái)形成共識(shí),監(jiān)督LMM的開(kāi)發(fā)和部署過(guò)程。 3.3 改革醫(yī)療大模型侵權(quán)事故中的 責(zé)任承擔(dān)制度 大模型智能醫(yī)療的誕生并未消除醫(yī)療產(chǎn)品責(zé)任的適用空間,但需要對(duì)現(xiàn)有的產(chǎn)品責(zé)任制度進(jìn)行相應(yīng)的改革和完善。歐盟新修訂的《產(chǎn)品責(zé)任指令》已經(jīng)明確將人工智能產(chǎn)品納入適用范圍。這一趨勢(shì)為中國(guó)在醫(yī)療大模型侵權(quán)制度的完善提供了啟示:通過(guò)對(duì)現(xiàn)有產(chǎn)品責(zé)任制度進(jìn)行修訂,深入剖析不同場(chǎng)景下的責(zé)任主體、完善AI大模型侵權(quán)構(gòu)成要件如損害賠償范圍、產(chǎn)品缺陷以及因果關(guān)系的認(rèn)定,使其適應(yīng)數(shù)字世界的新要求是一種可以考慮的方向。 將醫(yī)療LMM侵權(quán)事故責(zé)任納入產(chǎn)品責(zé)任規(guī)制范圍,除了需要對(duì)“產(chǎn)品”作擴(kuò)大解釋外,還需要對(duì)AI領(lǐng)域的產(chǎn)品責(zé)任制度進(jìn)行改造。首先,討論人工智能系統(tǒng)的產(chǎn)品責(zé)任,關(guān)鍵是界定人工智能系統(tǒng)的生產(chǎn)者,明晰AI產(chǎn)品整個(gè)生命周期中不同的責(zé)任主體所扮演的角色;其次,LMM系統(tǒng)缺陷的概念需要得到明確,在AI語(yǔ)境下如何評(píng)估AI系統(tǒng)是否能按預(yù)期安全有效地運(yùn)行,包括但不限于算法偏差、數(shù)據(jù)質(zhì)量問(wèn)題、安全漏洞等;再次,擴(kuò)大人工智能產(chǎn)品損害的賠償范圍也有必要,可以考慮將醫(yī)療數(shù)據(jù)損失、患者精神損害等納入可賠償損害的范圍;最后,通過(guò)建立信息披露和提供要求破解醫(yī)療大模型的算法黑箱,并輔以推定等減輕舉證責(zé)任的規(guī)則,在缺陷、因果關(guān)系認(rèn)定等方面適當(dāng)將天平向弱勢(shì)的被侵權(quán)人傾斜。 而LMM使用者承擔(dān)過(guò)錯(cuò)責(zé)任更符合法理。在人工智能系統(tǒng)的使用中,過(guò)錯(cuò)責(zé)任原則要求證明使用者在操作人工智能系統(tǒng)時(shí)的不當(dāng)行為或疏忽導(dǎo)致了損害。這一點(diǎn)對(duì)于自主學(xué)習(xí)和高度自主的人工智能系統(tǒng)尤為復(fù)雜,因?yàn)樗鼈兊男袨榭赡艹鍪褂谜叩闹苯涌刂?。因此,?duì)于那些已經(jīng)盡到所有合理注意義務(wù)的使用者,應(yīng)限制其責(zé)任,僅在使用者存在過(guò)錯(cuò)的情況下,由使用者承擔(dān)侵權(quán)責(zé)任。如果損害是由于人工智能系統(tǒng)內(nèi)在缺陷或不可預(yù)見(jiàn)的機(jī)器學(xué)習(xí)行為引起的,而使用者已經(jīng)遵循所有操作規(guī)范和制造商指南,則無(wú)須承擔(dān)責(zé)任。未來(lái)在醫(yī)療場(chǎng)景中,LMM的使用者承擔(dān)過(guò)錯(cuò)責(zé)任中的一個(gè)核心考量是如何界定LMM使用者的注意義務(wù),隨著LMM介入醫(yī)療領(lǐng)域且有望改善醫(yī)療活動(dòng)的準(zhǔn)確性、可靠性,醫(yī)護(hù)人員的注意義務(wù)可能發(fā)生改變,未來(lái)有必要通過(guò)規(guī)定先行義務(wù)來(lái)將注意義務(wù)規(guī)范化以便于判斷責(zé)任方;同時(shí),根據(jù)LMM在醫(yī)療領(lǐng)域中的發(fā)展應(yīng)用水平對(duì)醫(yī)護(hù)人員的注意義務(wù)進(jìn)行相應(yīng)調(diào)整,例如在一些情況下不依賴LMM的診斷結(jié)果可能被視為具有過(guò)錯(cuò)。這樣既能激勵(lì)在醫(yī)療活動(dòng)中積極引入LMM應(yīng)用,又能確保對(duì)醫(yī)療活動(dòng)的受害人進(jìn)行有效的救濟(jì)。 結(jié)語(yǔ) 文獻(xiàn)來(lái)源 曹建峰,徐艷玲.醫(yī)療領(lǐng)域多模態(tài)AI模型的機(jī)遇、挑戰(zhàn)與治理應(yīng)對(duì)[J].中國(guó)醫(yī)學(xué)倫理學(xué),2024,37(9):1023-1029.
智慧醫(yī)療網(wǎng) ? 2022 版權(quán)所有 ICP備案號(hào):滬ICP備17004559號(hào)-5