導語
AI看病,誤診了誰負責?
隨著Deepseek持續火熱,部分醫生和患者紛紛在線種草。但在近日,「AI 誤診,患者獲賠127萬」的消息在各大社交平臺迅速傳播、引起爭議。
圖源:社交平臺
不過,我們尚未在官方法律文書網查詢到相關判例文件,業內資深醫法律師對于該新聞也表示:從未聽過。
關于AI誤診的醫療判決,真的出現了嗎?當下醫生和AI的共處,情況到底如何,其中又暗藏著哪些風險?
有人用它寫病歷,有人擔心誤診
據不完全公開統計,僅春節期間DeepSeek發布以來,已有天津醫科大學總醫院、復旦大學附屬華山醫院等近百家醫院宣布已本地化部署、接入DeepSeek,多家醫療領域上市公司宣布接入DeepSeek,加速公司智能化轉型,已經有不少醫生在醫院系統里正式用上了AI。
在“未來已來”的當下,有專家認為,AI醫療有望解決醫療資源分布不均、看病難等問題;也有專家提出了患者隱私、信息安全、倫理挑戰等方面的疑慮。其中一個富有爭議的問題是:醫院借助AI看病,誤診了誰負責?第一批在醫院用上AI的醫生們,真的開始用它來看病了嗎?
關于這個問題,目前有一些基本共識。醫生作為AI設備的使用者,要對診療結果進行最終復核并擁有“一錘定音”的權力,要承擔相應的責任。
從各家醫院的部署范圍來看,從病例輔助分析到報告解讀,甚至輔助診斷和提供治療建議,AI都露了一手,但在不同醫院和科室中,實際使用情況卻存在較大的差異。
一位西安某三甲醫院外科醫生成了第一波AI寫病歷的受益者:半個月前剛接入醫院系統的AI助手,可根據關鍵指令和信息自動生成手術記錄、出院記錄,醫生只需稍加修改或直接最后把關即可,由此獲得更多時間和精力投入到繁忙的手術中。
對于部分內科醫生來說,AI則是借助其強大的引擎補足了診斷思路、讓治療方式與患者全周期管理更加全面。
但在某些診室,盡管AI給出的建議已經十分全面,部分醫生依舊鮮少使用接入到醫院系統的智能助手。
在浙江某三甲醫院消化內科醫生王成(化名)的科室內,盡管醫院已經接入了 AI,醫生們依舊基本不用:消化內科很多患者的癥狀都較為類似、但診斷卻大不相同;就算是同一個病,根據不同年齡、基礎情況,診療都會有所差異。在這樣的情況下想用AI進行輔助診斷,需要輸入很詳細的資料、并且毫無病史隱瞞,反而一定程度上增加了醫生的負擔。
此前,浙江大學醫學院附屬第二醫院胸外科范軍強教授曾在社交平臺分享了Deepseek測評,但在實際看診中卻較少使用,在他看來,AI更像是一本字典、引導醫生們拓寬診療思路,但對于在臨床一線有幾十年診療經驗積累的成熟醫生來說,參考實在有限。
不同于診療經驗碾壓AI,天津大學泰達醫院神經內科主任醫師趙偉則是擔心誤診的發生:雖然AI雖然可以基于癥狀、輔助檢查結果給出多種診斷的可能,但如果只讓其給出一個具體的診斷考慮時,則時常會出錯。
就在前幾日,趙偉將一位確診為平山病(又名青少年上肢遠端肌萎縮癥)的病案信息輸入Deepseek、并讓其給出最主要考慮的診斷,得到的回答卻是肌萎縮側索硬化癥:這兩類疾病雖然都以肌萎縮、肌無力為表現,在病因、診療上卻存在較大差異。
從某些角度講,Deepseek目前在醫療中的角色更像是高級版的百度,如果患者甚至醫生過度依賴它,很可能導致誤診的發生。趙偉表示,當患者從醫生和 DeepSeek這里得到的診斷建議不一致時,也加大了醫患治療的溝通難度和信任成本、可能導致延誤治療。
AI誤診,誰來擔責?
AI醫療的法律風險被業內人士多次提及。北京航空航天大學法學院副教授趙精武解釋,AI醫療在法律與合規上面臨的挑戰,主要包括對AI誤診的責任界定和相應法律糾紛的處理辦法,以及如何平衡患者隱私保護與數據共享之間的矛盾等等。
在AI醫療應用較多的海淀醫院,據院長張福春介紹,“即便有AI的輔助,醫生仍是最后把關人,所以如果AI診療出現錯誤,最終還是由醫生擔責。”
中國衛生雜志也曾在文章《AI看病,誤診了誰負責?》中表示:
如果AI診療設備被證明存在系統性缺陷并最終導致了不良后果,那么患者或醫療機構可依據《中華人民共和國民法典》第一千二百二十三條,要求其生產者進行賠償。法律界人士指出,涉及AI診療的醫患糾紛,責任應“人機共擔”。據報道,2024年,某地一名患者因AI誤診延誤治療,法院判決醫院承擔70%責任,AI供應商承擔30%。歐盟醫療AI誤診訴訟案中,法院也首次判定算法開發者需承擔30%連帶責任。
這樣的歸責原則看似與一般醫療器械沒什么兩樣,實際上,根據《醫療器械監督管理條例》和國家藥監局發布的《人工智能醫療器械注冊審查指導原則》,AI診療設備也確屬醫療器械范疇。但與一般醫療器械不同的是,“AI醫生”往往是綜合患者體征指標,通過算法和“經驗”直接給出“答案”,尤其在面對復雜病情時,其運算過程可能已復雜到難以被人類完全理解。這種“技術黑箱”的存在,使相關方很難證明AI產品缺陷與治療失敗的因果關系,其責任劃分也就很難像一般醫療器械那樣“橋歸橋、路歸路”。
明確技術邊界與責任歸屬,是AI醫療發展中一個繞不開的話題。當AI廣泛應用于醫療,每0.1%的失誤都將成為解剖技術文明缺陷的手術刀。有人說,這個時代的責任劃定,實質是在人機協同的迷霧中重新標定人性的坐標;甚至有觀點認為,醫療責任劃分這塊“絆腳石”,將使AI在短時間內難以在醫療領域大展拳腳。
從技術層面看,醫療機構與高校、科研院所開展合作,培養“懂算法的醫生”和“懂醫學的算法工程師”,或許是解決問題的一個思路。打造AI時代的醫工結合平臺,將有助于提升AI決策的透明度和可解釋性。這不僅是醫療責任劃分的需要,也是AI診療工具完善和迭代的內在要求。
從法律層面看,在“AI醫生”走進醫院之前要制定好規范,實施算法治理。立法者在制定《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》《互聯網信息服務算法推薦管理規定》等法律法規時,都意識到了AI技術中算法提供者的責任與義務問題。未來針對AI診療的算法治理,應更加聚焦于通過技術和法律等手段,規范算法設計、開發、部署及使用的系統性管理框架,確保算法公平、透明、可問責。
不過,天津大學泰達醫院神經內科主任醫師趙偉則表示:一把優質的手術刀可以救人,也可以殺人;現階段在醫學診療中,AI作為一種工具的出現無疑是一種進步,是否會成為患者的奪命刀還取決于它是否被握在庸醫手中;AI導致誤診,不應成為醫生個人醫術不精的借口。
來 源 / 中國衛生雜志、央視網、丁香園、掌上醫訊
2025年衛生資格考試已進入備考季!華醫題庫更新速度快、視頻 / 刷題 / 模擬試卷等功能全、每日可免費刷題練習,點擊卡片,開啟復習之旅~
(其它學習途徑:打開掌上華醫→點擊“醫護助考”)
*此處為課程推廣廣告
點擊上方卡片了解詳情
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.