“AI+醫療”應用邊界引關注 專家建議全鏈條動態監管-紫荊網

“AI+醫療”應用邊界引關注 專家建議全鏈條動態監管

日期:2026-02-04 來源:經濟參考報 瀏覽量: 字號:
分享到
用微信掃描二維碼

近日,某知名醫生“拒絕把AI引入所在醫院電子病歷系統”的表述,引發熱議。“AI+醫療”的應用邊界在哪?如何解決“AI+醫療”的風險與倫理之困?就這一話題,《經濟參考報》記者對多位行業專家進行了採訪。專家認為,“AI+醫療”的核心是“用其長、防其短”,要明確AI的“輔助”定位,絕非替代醫療從業者,同時加快補齊監管空白,搭建跨部門協同全鏈條動態監管機制。

“AI+醫療”應用邊界引關注

“拒絕把AI引入所在醫院電子病歷系統”,其核心是反對年輕醫生從實習階段就係統性依賴AI,擔憂年輕醫生的臨牀思維訓練受阻,甚至被AI結論誤導。

百川智能創始人、CEO王小川直言:“醫生和患者都認可患者利益優先的原則。AI發展非常迅猛,一些場景下‘AI+醫生’已明顯優於單一醫生,符合醫學科學規律。因為擔心阻礙‘醫生成長’而限制使用AI,可能就限制了最有利於病人的醫療措施。”

在王小川看來,如果AI能實質性幫助到患者,就不應該拒絕使用。換句話說,醫生的成長,不能以當前患者為成本。至於對AI會導致年輕醫生能力退化的擔憂,解題的關鍵在於轉換使用思路:醫生不是在給AI糾錯,而是讓AI對醫生的臨牀思維進行提醒,對診療結果進行校驗,從而降低漏診、誤診的風險。這樣一來,患者受益的同時,醫生也成長了。

業界認為,此番行業討論的焦點集中於AI在醫療過程中的應用邊界、人才培養、責任認定等核心問題上。

北京中醫藥大學衛生健康法治研究與創新轉化中心主任鄧勇在接受《經濟參考報》記者採訪時表示,爭論的核心是醫療行業“安全優先”的本質屬性與AI技術“快速迭代”的發展特性之間的適配矛盾——醫療直接關乎生命健康,容錯率低,而AI存在算法黑箱、數據偏差等不確定性,各方對風險的容忍度不同。

鄧勇認為,爭議焦點主要集中在三個方面:一是價值導向問題,是優先保障醫生能力培養,還是優先保障患者診療獲益;二是角色定位問題,是將AI作為效率工具,還是需警惕其變相“主導”診療;三是風險管控問題,是先放開應用再完善規範,還是先建立規則再有序推廣。

“對於‘AI+醫療’該用還是該防的討論,其核心是‘用其長、防其短’,而非非此即彼。”首都醫科大學附屬北京安貞醫院心臟超聲醫學中心主任何怡華說。

應明確AI“輔助而非替代”定位

近年來,隨着技術的迭代,越來越多的AI產品落地醫院臨牀場景,並從主流的醫學影像輔助診斷,延伸至智能預問診、隨訪管理、手術輔助、智能監護、心理服務等多元環節,且產品合規化與臨牀滲透率大幅提升。

根據中郵證券研報,截至2025年12月5日,累計已有207款人工智能醫療器械獲三類醫療器械註冊證。AI在生物製藥、輔助診斷、醫療服務等領域步入成熟階段。

2024年11月,國家衛健委、國家中醫藥局、國家疾控局聯合印發的《衛生健康行業人工智能應用場景參考指引》,明確了4大領域13個細分板塊共84個“AI+醫療”應用場景;2025年10月,國家衛健委等五部門再發《關於促進和規範“人工智能+醫療衛生”應用發展的實施意見》,錨定8大重點方向推進落地。

“‘AI+醫療’是醫療技術數字化升級的必然趨勢,本質是用人工智能技術優化醫療服務流程、彌補醫療資源短板,絕非替代醫療從業者,而是醫療體系的重要補充。”鄧勇說。

何怡華也認為,臨牀場景中,至少在目前的發展階段來看,AI“輔助工具”的核心邊界應該是“建議權而非決策權”,即AI可提供數據支持、診斷參考、風險預警,但最終的診療方案、治療決策必須由醫生結合患者具體病情、身體狀況、個人意願等綜合判斷後作出。

“避免過度依賴的關鍵在於建立‘醫生主導、AI輔助’的使用機制”。何怡華表示,一方面,醫院需針對不同場景、不同類型的Al產品,制定差異化使用規範與操作流程,要求醫生對部分AI的輸出結果進行復核,將AI建議作為強有力助手而非不假思考的“直接採信”;另一方面,在人才培養中,要強化臨牀思維和對疾病的認知推理能力培養,用好AI既可以獲得知識,也可以辯證思考專家經驗,更關鍵的是助力醫生思辨能力的提升,讓技術成為夯實專業根基、錘鍊核心素養的助力。

中國醫學科學院醫學信息研究所醫療衛生法制研究室主任曹豔林建議,要避免醫生對AI的過度依賴,可以從制度約束、認知提升、技術倒逼、流程把控、考覈監督等多個維度構建“醫生主動判斷、AI輔助參考”的臨牀使用機制,讓醫生把AI當作工具而非依賴,最終迴歸以臨牀思維為核心、患者個體需求為導向的醫療本質。

“醫院應制定AI使用規範,明確不能直接照搬AI的診斷、治療建議;建立AI使用的‘追責與溯源機制’;還應加強AI產品設計的監測與規範,要求臨牀使用的AI產品不做定性判斷,只做客觀標註和信息整合。”曹豔林說。

“AI+醫療”風險與倫理之困待解

中郵證券在研報中預測,“AI+醫療”行業人工智能解決方案的全球市場規模預計將由2022年的137億美元增至2030年的1553億美元,複合增長率為35.5%;到2030年,中國市場有望達到168.3億美元,行業存在爆發式增長機會。

但不容忽視的是,“AI+醫療”面臨的商業化進程、道德倫理、監管風險等一系列深層次挑戰仍然存在。

“AI醫療產品的核心風險點,集中在數據、算法、安全三大維度,且彼此關聯、互相影響。”鄧勇說,作為最基礎的風險點,患者隱私信息等相關數據不僅存在因採集不規範、存儲有漏洞、傳輸無加密而引發大規模泄露的隱患,還會陷入同質化嚴重與缺乏小眾病數據的困境,直接侷限了AI的診療邊界。

此外,鄧勇認為,算法相關風險是核心所在,數據偏差衍生的診療偏見會對特定人群造成醫療不公,而算法決策邏輯不可解釋的“黑箱”問題,也讓醫生無法判斷其結論的合理性,難以開展有效校驗。

“性能穩定性則是最關鍵的風險點,AI診療能力高度依賴數據與算力,在複雜併發症、罕見病等非標準化臨牀場景中易出現性能波動,且若算法迭代後未充分驗證便上線,還會大幅提升誤診、漏診的醫療風險。”鄧勇補充道。

在他看來,“AI+醫療”會引發新的醫學倫理挑戰。“首先,多數患者對AI診療邏輯不知情,醫生若未明確告知診療中AI的參與度,會侵犯患者知情權,且患者缺乏是否接受AI輔助診療的選擇權;其次,AI訓練數據多源於優質醫療資源集中的地區,易對罕見病、小眾人群、基層患者產生算法偏見,導致診療服務的不公平分配。”鄧勇說。

此外,鄧勇認為,“優質AI醫療產品多集中於頭部機構,可能加劇‘強者愈強’的醫療資源分化,進一步拉大基層與三甲醫院的服務差距;此外,過度依賴AI會弱化醫患面對面的溝通與人文關懷,讓醫療服務淪為‘數據+算法’的冰冷流程,背離醫療的人文本質。”

“從醫學倫理角度來看,AI+醫療確實帶來了新挑戰:一是患者知情權問題;二是算法公平性,若訓練數據存在偏差,可能導致AI對特定人群的診斷準確率不足,需持續優化數據多樣性;三是醫療資源的分配,若AI產品價格過高,可能加劇優質醫療資源的‘數字鴻溝’,需推動AI技術普惠化。”何怡華認為,這些挑戰並非不可解決,而是需要通過技術優化、制度規範逐步完善,不能因存在倫理問題就否定AI的價值。

完善全鏈條動態監管

“當前,我國的法律制度和監管規則已確立醫療機構和醫生是責任主體,AI是輔助工具,並明確了‘安全優先’‘數據合規’的核心底線,能有效防範AI醫療的基礎風險,但對AI醫療特有的算法‘黑箱’、持續迭代、責任鏈複雜等問題,缺乏精細化、動態化的管控機制。”曹豔林說。

在何怡華看來,面對快速迭代的技術與複雜的臨牀場景,監管方面仍需強化幾個方面:一是產品上市前的測評和審覈,目前多是針對單項Al技術產品的上市前審覈,而對於醫療大模型的測評和監管尚存在欠缺;二是動態監管機制,AI算法在臨牀應用中會不斷迭代優化,對上市後的算法更新、性能監測需持續監管;三是隱私保護的技術與制度銜接,醫療數據包含大量敏感信息,如何在保障Al訓練數據需求的同時,杜絕隱私泄露,仍需更細化的操作規範。

“應加快補齊監管空白,儘快出台AI醫療責任界定、算法審查、全流程監測等專項規則;搭建跨部門協同監管平台,整合醫療、網信、工信等部門力量,實現從准入到退出的全鏈條動態監管;加強基層AI應用監管,出台適配基層的AI產品標準,避免優質AI資源過度集中。”鄧勇說。

具體來看,鄧勇建議,首先,按AI醫療產品的風險等級分類,對輔助影像篩查、報告錄入等低風險產品,簡化審批流程、鼓勵試點應用;對輔助診斷、治療方案建議等高風險產品,嚴格准入標準、強化全流程監測。

其次,管住核心風險點,一是建立算法備案與審查機制,要求企業披露算法基本邏輯與訓練數據來源;二是明確責任劃分規則,釐清各方在診療中的責任邊界;三是搭建風險預警平台,實時監測AI臨牀應用中的異常數據。

此外,建立監管沙盒機制,對創新型AI醫療產品,劃定特定區域、特定場景進行試點,允許在可控範圍內探索;同時根據技術發展、應用反饋,及時優化監管規則,避免規則滯後於技術創新。

來源:經濟參考報

掃描二維碼分享到手機

編輯:周子玉 校對:馬又清 監製:黎知明
天文台在4月3日下午4時15分發出雷暴警告,有效時間至今日下午5時30分,預料大嶼山、香港島及九龍有一兩陣雷暴。
紅磡新海濱,復活節假期怎麼玩?
中國教育部:義務教育學校嚴禁設立重點班、實驗班、快慢班
【紫荊專稿】以文化之橋講好中國澳門故事
紫荊雜誌
影響有影響力的人