產(chǎn)品分類導(dǎo)航
CPHI制藥在線 資訊 技術(shù)與倫理的博弈 醫(yī)療AI隱憂如何解?

技術(shù)與倫理的博弈 醫(yī)療AI隱憂如何解?

作者:王悅  來源:動(dòng)脈網(wǎng)
  2019-06-11
即便如此,該技術(shù)仍然引發(fā)了一系列棘手的道德難題。當(dāng)AI系統(tǒng)決策失誤時(shí)會(huì)出現(xiàn)哪些問題?如果有問題的話,該誰負(fù)責(zé)?臨床醫(yī)生如何驗(yàn)證甚至了解AI“黑匣子”的內(nèi)容?他們又該如何避免AI系統(tǒng)的偏見并保護(hù)患者隱私?

       在希波克拉底誓言奠定醫(yī)學(xué)倫理基礎(chǔ)的2400年后,人工智能的出現(xiàn)可能給醫(yī)學(xué)倫理帶來史上的挑戰(zhàn)。

       專家預(yù)測(cè),到2024年,AI醫(yī)療將是一個(gè)近200億美元的市場(chǎng)。人工智能有望成為醫(yī)療實(shí)踐的福音,能夠改善診斷效果、提供個(gè)性化治療,并及時(shí)發(fā)現(xiàn)未來的公共醫(yī)療風(fēng)險(xiǎn)。

       即便如此,該技術(shù)仍然引發(fā)了一系列棘手的道德難題。當(dāng)AI系統(tǒng)決策失誤時(shí)會(huì)出現(xiàn)哪些問題?如果有問題的話,該誰負(fù)責(zé)?臨床醫(yī)生如何驗(yàn)證甚至了解AI“黑匣子”的內(nèi)容?他們又該如何避免AI系統(tǒng)的偏見并保護(hù)患者隱私?

       2018年6月,美國(guó)醫(yī)學(xué)會(huì)(AMA)發(fā)布了首個(gè)關(guān)于如何開發(fā)、使用和調(diào)節(jié)人工智能的指南。值得注意的是,該協(xié)會(huì)將人工智能稱為“augmented intelligence”(智能增強(qiáng)),而非我們廣泛認(rèn)為的“artificial intelligence”。這表明,美國(guó)醫(yī)學(xué)會(huì)認(rèn)為人工智能的作用是增強(qiáng)而非取代醫(yī)生的工作。

       雖然AMA在指南中表示,人工智能應(yīng)該設(shè)計(jì)用于識(shí)別和解決偏見、保障弱勢(shì)群體需求、實(shí)現(xiàn)過程透明性并保護(hù)患者隱私,但在具體實(shí)施中,這些要求很難得到滿足。以下是醫(yī)學(xué)從業(yè)者、研究人員和醫(yī)學(xué)倫理學(xué)家需要面對(duì)且最為緊迫的道德挑戰(zhàn)。

       背后的偏見,怎么克服?

       2017年,芝加哥大學(xué)醫(yī)學(xué)院(UCM)的數(shù)據(jù)分析團(tuán)隊(duì)使用人工智能來預(yù)測(cè)患者可能的住院時(shí)長(zhǎng)。其目標(biāo)是確定可以提前出院的患者,從而釋放醫(yī)院資源并為新的患者提供救治。然后,醫(yī)院還會(huì)指派一名案例管理人員來幫助患者處理保險(xiǎn)事宜,確保患者及時(shí)回家,并為其早日出院鋪平道路。

       在測(cè)試系統(tǒng)時(shí),研究小組發(fā)現(xiàn),預(yù)測(cè)患者住院時(shí)間最準(zhǔn)確的因素是他們的郵政編碼,這立刻給研究團(tuán)隊(duì)敲響了警鐘。他們知道,郵編與患者的種族和社會(huì)經(jīng)濟(jì)地位密切相關(guān)。依靠郵政編碼做預(yù)測(cè),會(huì)對(duì)芝加哥最貧困社區(qū)的非裔美國(guó)人造成不良影響,這些人往往住院時(shí)間更長(zhǎng)。因此該團(tuán)隊(duì)認(rèn)為使用該算法分配案例管理員將是有偏見和不道德的。

       “如果你要在實(shí)踐中實(shí)施這個(gè)算法,你會(huì)得到一個(gè)矛盾的結(jié)果,那就是把更多(病例管理)資源分配給更富裕的白人患者,”UCM內(nèi)科醫(yī)生、醫(yī)療倫理學(xué)教授Marshall Chin說道。

       最終數(shù)據(jù)分析團(tuán)隊(duì)刪除了郵政編碼這個(gè)預(yù)測(cè)因素。該算法仍在開發(fā)中,尚未測(cè)試出新模型。

       這個(gè)案例指出了基于人工智能的醫(yī)療保健工具的弱點(diǎn):算法通常可以反映現(xiàn)有的種族或性別健康差異。這個(gè)問題如果沒有得到解決,就可能會(huì)導(dǎo)致長(zhǎng)期性偏見并固化醫(yī)療保健領(lǐng)域現(xiàn)有的不平等現(xiàn)象。

       偏見還會(huì)影響罕見病或新疾病的治療,這些疾病的治療數(shù)據(jù)有限。人工智能系統(tǒng)可能會(huì)直接給出一般治療方案,而不考慮患者的個(gè)人情況。這時(shí),人工智能擬議的治療方案是無效的。

       最近,斯坦福大學(xué)**學(xué)助理教授Danton Char在一篇關(guān)于機(jī)器學(xué)習(xí)的論文中指出,因?yàn)閲?yán)重腦損傷患者或極早產(chǎn)兒的存活幾率很低,因此醫(yī)生常常停止對(duì)他們的護(hù)理。而即使某些患者個(gè)體預(yù)后良好,機(jī)器學(xué)習(xí)算法仍然可能會(huì)直接得出結(jié)論:所有類似病例都是致命的,并建議撤回治療。

       “黑匣子”問題,路在何方?

       第二個(gè)道德挑戰(zhàn)是,通常情況下,研究人員并不了解AI系統(tǒng)是如何計(jì)算出結(jié)果的,即所謂的黑匣子問題。先進(jìn)的機(jī)器學(xué)習(xí)技術(shù)可以在沒有明確指示的情況下吸收大量數(shù)據(jù)并識(shí)別統(tǒng)計(jì)模式,整個(gè)過程人類尤其難以驗(yàn)證。盲目遵循這種系統(tǒng)的醫(yī)生可能會(huì)在無意中傷害患者。

       “我們通常很難理解算法的'思想'過程是什么。”聯(lián)合國(guó)大學(xué)政策研究中心新興網(wǎng)絡(luò)技術(shù)研究員Eleonore Pauwels表示。

2015年的一項(xiàng)研究強(qiáng)調(diào)了該問題。在這項(xiàng)研究中,研究人員比較了不同AI模型預(yù)測(cè)肺炎患者死亡風(fēng)險(xiǎn)的程度。預(yù)測(cè)之后,那些風(fēng)險(xiǎn)較高的人將被送往醫(yī)院,而低風(fēng)險(xiǎn)的病人可以轉(zhuǎn)入門診治療。

       其中一個(gè)模型是“基于規(guī)則”的系統(tǒng),其決策過程對(duì)研究人員來說是透明的,卻預(yù)測(cè)出違反直覺的結(jié)果:患有肺炎和哮喘的患者比僅患有肺炎的患者存活機(jī)會(huì)更大,因此患有兩種疾病的患者可以推遲治療。顯而易見,醫(yī)護(hù)人員能夠清楚的判斷患有兩種疾病的患者具有更高的死亡風(fēng)險(xiǎn),但算法不能。所以僅僅依靠這種算法,意味著最危急的病人將不能及時(shí)得到他們所需要的治療。

       另一種使用神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)算法的模型產(chǎn)生了更準(zhǔn)確的結(jié)果,但其推理過程是不透明的,因此研究人員無法及時(shí)發(fā)現(xiàn)其中的問題。該研究的負(fù)責(zé)人、微軟公司研究員理查德卡魯阿納得出結(jié)論:神經(jīng)網(wǎng)絡(luò)模型風(fēng)險(xiǎn)太大,無法進(jìn)入臨床試驗(yàn),因?yàn)闆]有辦法判斷它是否犯了類似的錯(cuò)誤。

       決策失誤誰來買單?

       根據(jù)AMA的醫(yī)學(xué)倫理基本原則,醫(yī)生必須完全對(duì)患者負(fù)責(zé)。但是,當(dāng)人工智能進(jìn)入等式時(shí),責(zé)任又該如何劃分?這個(gè)問題的答案仍在由倫理學(xué)家、研究人員和監(jiān)管機(jī)構(gòu)制定。

       人工智能打破了提供醫(yī)療服務(wù)的群體限制,一些傳統(tǒng)上不受醫(yī)學(xué)倫理約束的人,比如數(shù)據(jù)科學(xué)家,也可以為患者提供醫(yī)療服務(wù)。此外,正如黑匣子問題所示,人們并不總是能夠確切地知道人工智能系統(tǒng)是如何做出診斷或開出治療處方的。有缺陷的算法可能對(duì)患者造成重大傷害,從而導(dǎo)致醫(yī)療事故。

       斯坦福大學(xué)**學(xué)家Char將人工智能比作處方藥。查爾表示,雖然不能指望臨床醫(yī)生了解他們開出的藥物的每一個(gè)生化細(xì)節(jié),但基于他們的臨床經(jīng)驗(yàn)和醫(yī)學(xué)文獻(xiàn)知識(shí),他們至少需要知道這些藥物是安全有效的。至于人工智能系統(tǒng),除非經(jīng)過仔細(xì)研究,他確信這是選擇,否則他不會(huì)使用。Char說道:“當(dāng)你對(duì)工具的了解并不充分時(shí),你不愿讓任何患者的生命處于危險(xiǎn)之中。”

       患者隱私何去何從?

       美國(guó)醫(yī)學(xué)協(xié)會(huì)曾發(fā)出警告:人工智能必須保護(hù)患者信息的隱私和安全。對(duì)醫(yī)患保密的承諾,是自希波克拉底立誓以來醫(yī)學(xué)倫理存在的基石。

       但為了做出準(zhǔn)確的預(yù)測(cè),機(jī)器學(xué)習(xí)系統(tǒng)必須要訪問大量的患者數(shù)據(jù)。如果沒有個(gè)人的醫(yī)療記錄,人工智能將無法提供準(zhǔn)確的診斷或有用的治療方法,更無法實(shí)現(xiàn)更加個(gè)性化的治療。更重要的是,如果數(shù)以百萬計(jì)的病人隱瞞他們的醫(yī)療數(shù)據(jù),關(guān)鍵的公共衛(wèi)生趨勢(shì)可能會(huì)被忽視,這將是每個(gè)人的損失。

       一個(gè)潛在的解決方案是從用醫(yī)療記錄中單獨(dú)刪除個(gè)人識(shí)別信息來保護(hù)患者隱私。然而,最近由加利福尼亞大學(xué)牽頭的一項(xiàng)研究表示,目前的匿名化技術(shù)還不夠成熟,并不能保證數(shù)據(jù)的有效清除。不過,未來可以開發(fā)更復(fù)雜的數(shù)據(jù)收集方法,以更好地保護(hù)隱私。

       不管技術(shù)能力如何,醫(yī)學(xué)專家建議醫(yī)學(xué)界重新考慮患者隱私的整個(gè)概念。隨著醫(yī)療系統(tǒng)變得更加復(fù)雜,將有更多的機(jī)構(gòu)有合法合理的需求去訪問敏感的患者信息。Char在論文中寫道:“機(jī)器學(xué)習(xí)系統(tǒng)的實(shí)現(xiàn),意味著我們需要重新認(rèn)識(shí)醫(yī)療數(shù)據(jù)隱私和其他職業(yè)道德核心原則。”

       在實(shí)踐中,醫(yī)院和機(jī)構(gòu)需要贏得患者的信任?;颊哂袡?quán)利了解他們的醫(yī)療隱私數(shù)據(jù)是如何被使用的,以及數(shù)據(jù)是會(huì)使他們自身受益或只能讓未來的患者受益。

       倫敦大學(xué)學(xué)院健康信息學(xué)研究所的高級(jí)研究員Nathan Lea表示:“如果患者更好地了解人工智能是如何改善個(gè)人和公共健康的,他們可能愿意放棄傳統(tǒng)的隱私觀念。隱私本身并不是絕對(duì)的,我們不能以保護(hù)患者隱私為借口而拒絕數(shù)據(jù)背后的龐大價(jià)值。”

       動(dòng)脈網(wǎng)有話說

       醫(yī)學(xué)科技與道德倫理的沖突一直存在,從人體解剖的人權(quán)問題,到克隆技術(shù)的身份爭(zhēng)議;從人工流產(chǎn)的人道質(zhì)疑,到如今人工智能的人倫思辨,圍繞醫(yī)學(xué)技術(shù)創(chuàng)新與社會(huì)道德倫理的爭(zhēng)論從未停息。正是這些對(duì)人性、人道、人類尊嚴(yán)、人的價(jià)值的關(guān)注,才使醫(yī)學(xué)體現(xiàn)了人文的關(guān)懷,保持了人性的張力。

       AI醫(yī)療技術(shù)的應(yīng)用和普世的倫理道德觀念本不矛盾,關(guān)鍵在于在權(quán)衡取舍中找到更合理的打開方式。我們期待人工智能在倫理思考的鞭策下迭代轉(zhuǎn)型,最終能夠以自己的方式協(xié)同解決人類社會(huì)的復(fù)雜問題。

       點(diǎn)擊下圖,觀眾預(yù)登記成功送20元話費(fèi)

預(yù)登記

相關(guān)文章

合作咨詢

   肖女士    021-33392297    Kelly.Xiao@imsinoexpo.com

2006-2024 上海博華國(guó)際展覽有限公司版權(quán)所有(保留一切權(quán)利) 滬ICP備05034851號(hào)-57