久久最新最好视频|精品福利视频在线|狠狠狠干在线播放|色尼玛亚洲综合网|日韩加勒比无码AV|亚洲AV人人澡人人爽人人爱|国产精品免费怡红院|婷婷一区二区XXX|日韩成人一区二区三|欧美熟妇另类AAAAAA

歡迎訪問智慧醫(yī)療網(wǎng) | 網(wǎng)站首頁
 
當前位置:首頁 > 資訊 > 觀點

如何認識可解釋人工智能在醫(yī)療領(lǐng)域的應(yīng)用

發(fā)布時間:2022-07-12 來源:智醫(yī)鏈 瀏覽量: 字號:【加大】【減小】 手機上觀看

打開手機掃描二維碼
即可在手機端查看

人工智能在醫(yī)療、通信、農(nóng)業(yè)、社會治安、交通領(lǐng)域、服務(wù)行業(yè)、金融行業(yè)、大數(shù)據(jù)處理領(lǐng)域飛速發(fā)展的同時,也對人類的隱私、安全、公平、潛在風(fēng)險帶來了根本性的挑戰(zhàn)。雖然不同國家、政府間組織、科研和產(chǎn)業(yè)界已經(jīng)發(fā)布了不少關(guān)于人工智能發(fā)展、倫理與治理原則,但這些原則并沒有形成統(tǒng)一觀念,人工智能發(fā)展亟待達成全球共識。

01

人工智能目前在醫(yī)療領(lǐng)域的應(yīng)用

整個醫(yī)療領(lǐng)域復(fù)雜程度高,涉及知識面廣,人工智能可在多個環(huán)節(jié)發(fā)揮作用。比如:醫(yī)學(xué)影像識別、生物技術(shù)、輔助診斷、藥物研發(fā)、營養(yǎng)學(xué)等領(lǐng)域,目前應(yīng)用最為廣泛的當屬醫(yī)學(xué)影像識別,在肺結(jié)節(jié)、乳腺癌、冠脈斑塊、皮膚癌、眼底病和病理等領(lǐng)域取得了諸多成果。隨著人工智能和機器學(xué)習(xí)(Artificial Intelligence-AI / Machine Learnin , AI/ML)驅(qū)動的新醫(yī)療技術(shù)的出現(xiàn),一場關(guān)于人工智能的底層邏輯是否必須是可理解的爭論還遠未達成共識。

目前,可信任人工智能仍然是AI應(yīng)用的前提條件之一

走向可信人工智能的關(guān)鍵步驟是開發(fā)可解釋的人工智能。

歐洲委員會人工智能高級專家組對可信的人工智能進行了定義。可信的人工智能應(yīng)該滿足三個必要條件:人工智能系統(tǒng)應(yīng)該遵守所有適用的法律法規(guī)(合法性),堅持道德原則和價值觀(道德性),安全可靠(穩(wěn)健性)。

我國《新一代人工智能倫理規(guī)范》第一條即開宗明義:本規(guī)范旨在將倫理道德融入人工智能全生命周期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題。該倫理規(guī)范明確提出,人工智能各類活動應(yīng)遵循增進人類福祉、促進公平公正、保護隱私安全、確??煽乜尚?、強化責(zé)任擔(dān)當、提升倫理素養(yǎng)等六項基本倫理規(guī)范。

02

可解釋人工智能的概念

人工智能的可解釋性,亦即解釋人工智能如何在大數(shù)據(jù)的基礎(chǔ)上進行算法決策,深入了解人工智能模型如何以及為什么產(chǎn)生預(yù)測,同時保持高預(yù)測性能水平。然而,在AI領(lǐng)域,雖然以深度學(xué)習(xí)為代表的人工智能技術(shù)已取得了令人矚目的成就,但如何確保以非技術(shù)性的方式向最終用戶和其他利益相關(guān)方解釋算法決策以及任何驅(qū)動這些決策的數(shù)據(jù),仍是一個無法得到解決的難題。人們也越來越認識到這些黑盒機器學(xué)習(xí)方法的局限性。

目前在這一領(lǐng)域的主要懸而未決的問題包括:對于可解釋性的含義仍然缺乏共識、沒有明確的指導(dǎo)如何選擇可解釋的人工智能方法、以及缺乏標準化的評價方法。人機并行將會是未來人工智能發(fā)展的長期狀態(tài),當人們認識到目前不能完全依賴人工智能進行自動決策,而只能將其作為輔助系統(tǒng)時,模型的透明程度、可理解程度就變得十分關(guān)鍵。人工智能的可解釋性是建立人類信任基礎(chǔ)的重要前提,只有基于可信任的智能系統(tǒng),才能將人工智能與人類智能有機結(jié)合,充分發(fā)揮人工智能的潛力與產(chǎn)能優(yōu)勢,形成優(yōu)勢互補的良性閉環(huán)。

03

人工智能進入醫(yī)療領(lǐng)域的限制因素及爭論

“黑箱”問題是人工智能和人工智能技術(shù)難以進入臨床實踐的基本原因。

首先,依賴邏輯不透明的技術(shù)設(shè)備違反當前的醫(yī)學(xué)倫理?!昂谙洹贬t(yī)學(xué)不能讓臨床醫(yī)生審查訓(xùn)練標簽或數(shù)據(jù)的質(zhì)量,這與循證醫(yī)學(xué)所遵循的規(guī)則相悖。如果患者無法質(zhì)疑人工智能系統(tǒng),他們的自主權(quán)和知情同意權(quán)就無法得到保證。

其次,算法偏差也可能造成違反“增進人類福祉、促進公平公正”的原則。例如,一種旨在根據(jù)醫(yī)療成本對疾病水平進行分類的人工智能算法被發(fā)現(xiàn)對弱勢群體患者有偏見。而且人工智能是基于過去數(shù)據(jù)學(xué)習(xí)的算法,可能會使這種結(jié)構(gòu)性不平等永久化,各國監(jiān)管機構(gòu)已經(jīng)注意到了這些擔(dān)憂。黑匣子正在阻礙人工智能的采用,因為監(jiān)管機構(gòu)不愿意批準任何缺乏臨床聯(lián)系的診斷方法。最后,醫(yī)患關(guān)系建立在溝通和信任的基礎(chǔ)上。沒有醫(yī)學(xué)上可解釋的人工智能,醫(yī)生將很難與患者交流,這將導(dǎo)致患者信心和滿意度的損失。

人類理性的發(fā)展歷程表明,如果一個判斷或決策是可以被解釋的,人們將更容易了解其優(yōu)點與不足,更容易評估其風(fēng)險,知道其在多大程度上、在怎樣的場合中可以被信賴,以及可以從哪些方面對其進行不斷改善,以盡量增進共識、減少風(fēng)險,推動相應(yīng)領(lǐng)域的不斷發(fā)展。這樣的思維范式是當前最成熟、最具共識、最可信賴的思維模式。人工智能時代這種思維方式可能存在挑戰(zhàn)。當“知”和“行”不同步,即人腦已經(jīng)跟不上算法進步的情況發(fā)生時,知行合一該如何應(yīng)對?

人工智能應(yīng)用于醫(yī)療領(lǐng)域是否必須可解釋,目前還存在很大的爭議。支持者基于“可解釋人工智能”的意義認為“可解釋性應(yīng)該是醫(yī)學(xué)中人工智能模型的一個要求,并且應(yīng)該從一開始就內(nèi)置”。

但反對意見也很值得重視。人類本身至今也未能形成一致的“正確”判斷標準,如何期待程序設(shè)計者能夠為人工智能嵌入一套具備普世價值的判斷標準?現(xiàn)代社會中價值觀念之間的沖突,道德規(guī)范屬于社會領(lǐng)域的價值判斷,科學(xué)無法解決價值判斷問題,溝通協(xié)調(diào)與坦然面對AI領(lǐng)域的現(xiàn)狀才是理智成熟的解決方式。

拋開哲學(xué)和社會學(xué)領(lǐng)域的問題,AI在醫(yī)療領(lǐng)域的現(xiàn)實性問題,也需要特別關(guān)注。比如醫(yī)學(xué)成像領(lǐng)域,“臨床醫(yī)生不知道該影像學(xué)模型是否恰當?shù)卮_定了哪些區(qū)域在決定中很重要,臟器邊界或血管的形狀是否是決定因素,或者該模型是否依賴于與人類不相關(guān)的特征,例如特定的像素值或紋理,可能與圖像采集過程有關(guān),而不是潛在疾病”,在缺乏此類信息的情況下,人類傾向于假設(shè)人工智能正在研究人類臨床醫(yī)生會發(fā)現(xiàn)的重要特征。這種認知偏差會使醫(yī)生對機器學(xué)習(xí)算法可能犯的錯誤視而不見。

研究人員還發(fā)現(xiàn)了目前流行的可解釋性方法的缺陷,如(Gradient-weighted Class Activation Mapping ,Grad-CAM)、(Local Interpretable Model-agnostic Explanations,LIME)和Shapley Values。其中一些方法通過改變輸入的數(shù)據(jù)點,直到算法做出不同的預(yù)測,然后假設(shè)這些數(shù)據(jù)點對原來做的預(yù)測來說一定是最重要的。但這些方法的問題是它們可能會識別出對決策很重要的特征,但它們不能準確告訴醫(yī)生為什么算法認為這些特征很重要。如果這個特征讓醫(yī)生覺得違反直覺,醫(yī)生該怎么做?斷定算法是錯誤的,還是斷定它發(fā)現(xiàn)了以前醫(yī)學(xué)未知的臨床重要線索?任何一個都有可能。更糟糕的是,不同的最新解釋方法在對算法結(jié)論的解釋上經(jīng)常存在分歧。在現(xiàn)實世界中,大多數(shù)使用算法的人都無法解決這些差異,而且通常,人們只是簡單地選擇了最符合他們現(xiàn)有想法的解釋。

一項研究顯示,醫(yī)學(xué)成像中使用的大多數(shù)深度學(xué)習(xí)算法都沒有受到嚴格的雙盲隨機對照試驗,所以AI企業(yè)給用戶提供的解釋只是缺乏臨床試驗所必須步驟的掩飾而已。

因此,有研究者建議可解釋AI的最終用戶,包括臨床醫(yī)生、立法者和監(jiān)管機構(gòu),要意識到當前存在的可解釋AI的局限性。如果希望確保人工智能系統(tǒng)能夠安全可靠地運行,那么重點應(yīng)該放在嚴格和徹底的驗證程序上。他們認為醫(yī)生不應(yīng)該專注于解釋,而應(yīng)該關(guān)注AI的作用效果,以及其是否經(jīng)過了嚴格、科學(xué)的測試,正如臨床試驗所做的一樣。

04

可解釋未來人工智能

在醫(yī)療領(lǐng)域應(yīng)用的展望

可解釋人工智能領(lǐng)域的目標是深入了解人工智能模型如何以及為什么產(chǎn)生預(yù)測,同時保持高預(yù)測性能水平。目前,人工智能發(fā)展迅猛,在其廣泛應(yīng)用于人類生活之前,其參與、輔助人類決策還是替代人類決策,會否產(chǎn)生災(zāi)難性的后果,了解人工智能的內(nèi)在邏輯,開發(fā)可解釋的人工智能是可信人工智能的一個可行步驟。雖然可解釋的人工智能領(lǐng)域在醫(yī)療保健方面有著光明的前景,但它還沒有完全發(fā)展起來。在“什么是合適的解釋”方面,以及如何評估“解釋”質(zhì)量方面還沒有達成人類共識。

此外,可解釋的人工智能方法的價值還有待于在實踐中得到證明。目前還沒有如何在可解釋的人工智能方法中選擇的明確的指導(dǎo)方法,以及缺乏標準化的評估方法。

在醫(yī)療保健領(lǐng)域創(chuàng)造值得信賴的人工智能,可以從以下幾個方面入手:

提供建模數(shù)據(jù)的質(zhì)量報告。模型是基于既往數(shù)據(jù)的,由于現(xiàn)實世界的數(shù)據(jù)不是為研究目的收集的,它們可能包含偏見、錯誤或不完整。因此,理解數(shù)據(jù)質(zhì)量和數(shù)據(jù)是如何收集的至少和可解釋性一樣重要,因為它允許理解最終模型的局限性。

進行廣泛的(外部)驗證。對模型的魯棒性或可推廣性,可以使用外部驗證來解決。外部驗證是臨床風(fēng)險預(yù)測模型的一個重要領(lǐng)域,這有賴于有關(guān)的國際標準、國際法規(guī),采用共同的數(shù)據(jù)通用結(jié)構(gòu),允許按照公認的最佳實踐,以透明的方式開發(fā)和外部驗證預(yù)測模型。這也確保了結(jié)果的可重復(fù)性。

建立有效的監(jiān)管機制。從長遠來看,這是一種建立信任的有效方式。第一種方法是要求人工智能系統(tǒng)滿足預(yù)先定義的要求(規(guī)范最終產(chǎn)品)。另一種方法是通過引入應(yīng)該遵循的標準開發(fā)指南來控制開發(fā)過程。

總之,可解釋性的必要性在于,它背后的理論是以人類為中心,反應(yīng)的是我們該如何通過解釋模型達到人類對模型的信任,從而創(chuàng)造更加安全可靠的應(yīng)用,進而推動整個AI產(chǎn)業(yè)的進步,造福人類。


智慧醫(yī)療網(wǎng) ? 2022 版權(quán)所有   ICP備案號:滬ICP備17004559號-5