近年來,得益于醫療大數據、深度學習算法的迅猛發展,人工智能與大健康產業正在深度融合,覆蓋醫療、醫藥、醫學等各個領域。目前,我國相繼批準了肺結節CT影像輔助檢測軟件、冠脈CT造影圖像血管狹窄輔助分診軟件、糖尿病視網膜病變眼底圖像輔助診斷軟件等多款醫療人工智能產品上市。醫療人工智能依托強大的數據挖掘和深度學習能力,能夠自主得出診斷結論和推薦治療方案,廣泛而深刻地影響著醫療決策的過程和結果,并且在速度、精準度方面具有強大優勢,能夠在相關領域提升診療水平、緩解醫療資源緊張的問題。
科技是發展的利器,也可能成為風險的源頭。醫療人工智能的發展,為我們呈現了一個美好前景。與此同時,相較于自動駕駛汽車、人臉識別技術等,醫療人工智能直接應用于醫療活動當中,與患者的生命健康利益緊密關聯,給現行法律規制提出了更大挑戰。尤其是醫療損害發生后的法律責任承擔以及醫療數據的保護和利用等問題存在較多不明確之處,亟待探討解決。
第一,醫療數據的治理難題。醫療人工智能的深度學習需要收集并分析海量的、高質量的數據資源。由于醫療數據具有特殊性、隱私性,大規模的共享利用難度很大,數據孤島的現象嚴重。這導致目前醫療人工智能的數據來源較為有限,常常局限于某個地區的一家或者幾家醫療機構,訓練數據的質量與數量還無法得到保證,這直接影響醫療人工智能的準確率和實用性。
第二,患者知情同意權的保護難題。醫療活動中的檢查診斷流程是一套基于現象與結果之間因果關系的經驗演繹,采取的診斷與治療措施依據的也都是長期反復的臨床經驗總結。與此不同的是,醫療人工智能的核心是數據和算法,而深度學習算法本質上是一套基于統計學的數學模型,輸入層與輸出層更多的是基于某種概率相關性而非因果關系,由此會產生黑箱醫療問題。這意味著醫療人工智能可以給出精準的機器判斷,卻無法解釋這些判斷是如何作出的。這對于將知情同意規則視為基本原則的醫療領域來說,其中沖突該如何解決值得思考。
第三,醫療事故的責任承擔難題。理想的情況下,醫療人工智能每次作出的判斷都是正確的,醫務人員采納機器判斷不僅不存在醫療過失,而且醫療效果更好。然而,醫療人工智能無法保證百分百安全。實踐證明,醫療人工智能誤診或誤操作等現象難以避免。面對醫療人工智能作出的判斷,醫務人員究竟是該堅持自己的判斷還是采納機器判斷?如果醫務人員接受或者拒絕機器判斷,進而讓患者受到損害的話,那么該如何認定醫務人員的醫療過失?醫療人工智能又是否可以適用產品責任?傳統醫患關系之間發生糾紛及其責任認定問題在我國以民法典侵權編為代表的法律規定中有較為完善的規定,人工智能醫療的介入對現有醫療損害責任承擔體系產生了沖擊。
面對醫療人工智能帶來的上述挑戰,需要堅持醫療人工智能的輔助定位,通過加強解釋和完善立法,建立醫療人工智能的技術準入標準,完善醫療損害的法律歸責制度,平衡好患者、醫務人員、醫療機構、技術設計者和生產者的利益與責任,通過配置妥當的法律規則,以安全、可靠、可控的技術產品,來保障技術發展與人民群眾的健康安全。
分層分類完善醫療數據保護與利用規則。醫療數據的類型非常多樣,既有患者的個人數據,如醫保數據、病歷數據等,也有患者與醫療機構、醫療人工智能企業共同產生的數據,如臨床數據、實驗數據等。其中,患者產生的醫療數據多涉及患者的隱私,屬于敏感個人信息,應當遵守個人信息保護法的規定,其處理必須有特定的目的以及充分的必要性。對于各方共同產生的數據,則可以通過合理的利益分配機制,提高各方共享醫療數據的內生動力,推動醫療數據的長效利用。此外,應當重視技術解決方案,通過匿名化、去標識化、聯邦學習等方法,增強醫療數據的利用價值,打破醫療數據的孤島。
強化患者知情同意權保護。患者知情同意是醫療行為特別是侵入性醫療行為具有正當性的前提。我國民法典第1219條規定:“醫務人員在診療活動中應當向患者說明病情和醫療措施。需要實施手術、特殊檢查、特殊治療的,醫務人員應當及時向患者具體說明醫療風險、替代醫療方案等情況,并取得其明確同意。”患者對醫療人工智能應用充分知情并同意使用,才能使人工智能輔助醫療行為具有正當性。面對醫療人工智能的黑箱屬性,確立醫務人員的算法解釋義務至關重要。這種算法解釋義務應當是針對具體決策的解釋,而非針對系統功能的解釋,并且需要轉換為患者易于理解的要素,包括決策依據、數據來源、各要素的權重等。此外,醫務人員還應當擴大告知的范圍,將醫療人工智能的質量控制指標告知患者,包括診療準確率、信息采集準確率、診療平均時間、重大并發癥發生率等,盡可能幫助患者了解各方情況。
合理分配醫療事故責任。醫療人員是否存在過失,是認定醫療責任的核心要件之一。根據《最高人民法院關于審理醫療損害責任糾紛案件適用法律若干問題的解釋》的有關規定,醫務人員診療過失的判斷除適用當時醫療水平標準外,還需依據法律、行政法規、規章及其他有關診療規范,同時綜合考慮患者病情的緊急程度、患者個體差異、當地的醫療水平、醫療機構與醫務人員資質等因素。這一判斷標準被稱作“合理醫生”標準。一方面,對于醫務人員來說,無論醫療人工智能多么智能,其只能是提供輔助診療的工具。這意味著醫務人員必須要對機器判斷進行合理的再判斷,否則即存在醫療過失。對此,可以通過“合理醫生”標準來加以靈活判斷,即醫務人員在既有情況下是否盡到一位理性醫生應當盡到的注意義務,如是否運用了自己的專業知識進行直接驗證,是否考慮了算法成熟度、數據質量等間接因素。另一方面,雖然醫療人工智能常常以軟件形式出現,但在滿足一定條件時仍然可以適用產品責任。如果醫療人工智能的表現遠低于醫務人員,如系統頻繁漏診明顯的病灶、開出的藥方經常違背基本醫理,根本起不到應有的輔助作用,那么可以認定其存在產品缺陷,生產者需與醫療機構共同承擔產品責任。