大公网

大公报电子版
首页 > 财经 > 经济观察家 > 正文

创科宇宙/AI+医疗冒起 完善监管不宜迟\梁颕宇

2026-04-22 09:02:47大公报
字号
放大
标准
分享

人工智能(AI)浪潮席卷全球,医疗健康是其中一个受影响领域,亦已渗透到临床诊疗、健康管理、医院运营、药物研发、医保支付等不同场景。同时也带来了数据隐私、演算法偏差、技术可靠性、法律监管、伦理规范、产业现实等多重挑战。

近年,香港公私营医疗体系积极引入AI应用,但迄今为止,当局尚未制订全面规范AI在医疗领域应用的法律,目前卫生署主要透过“医疗器械行政管理制度”监管具AI功能的医疗软件。香港若要发展成为蓬勃的区域医疗创新枢纽,必须建立更加强健且具适应力的监管框架,而此框架须在创新与监管保障之间取得平衡。AI医疗产品和应用的核心风险点,集中在数据、算法、安全等方面。

厘清AI误诊责任

首先是技术与数据层面,AI诊疗能力高度依赖数据与算力,在数据不完整、不平衡的状态下,可能导致模型偏差,如训练数据集中于大医院、特定人群,可能导致模型在基层、少数群体或罕见病上的表现不稳定。另外,不同机构和资讯系统之间缺乏互操作性,数据孤岛严重,也阻碍了模型迁移推广。算法决策逻辑不可解释的“黑箱”问题,也让医生无法判断其结论的合理性。

其次是伦理和社会信任方面,医疗数据高度敏感,AI大模型训练涉及跨机构、跨地域甚至跨境流动,如何在训练推理中实现最小必要使用、脱敏与访问控制是前提。此外,医生若未明确告知患者诊疗中AI的参与度,有机会侵犯患者知情权。

再次是监管与责任方面,医疗大模型存在“幻觉”风险,若缺乏人类监督可能导致误诊。现阶段而言,AI误诊责任归属不清,医生、医院、技术供应商之间界限模糊,现行监管多停留在原则层面,缺乏细化制度和准入标准,缺乏清晰的法律与保险机制,会让机构在采用时更保守。更重要的是,现行监管大多是针对单项技术产品的上市前的审批,而对于医疗大模型的测评和监管尚存在欠缺,遑论针对AI算法在临床应用中会不断迭代优化,对上市后的算法更新、性能监测需持续监管的动态监管机制或第三方评估体系。

医疗行业容错率极低,虽然技术成熟度提升,但AI模型仍存在误判风险,需持续优化演算法,这也使得监管机关在监督此类产品及评估其所产出证据的过程中,面临日益严峻的挑战。

保障数据安全与隐私

因应医疗AI快速发展造成的“碎片化”问题,具前瞻性的政府在数据治理和技术架构优化方面,可鼓励建立跨机构数据共用机制,推动跨系统数据流动与标准化、结构化、互操作;促进AI工具互联互通,从单点工具过渡到多模型协同的模组化架构,由智能代理协调跨流程任务,逐渐形成统一的数据治理与互操作协议,避免碎片化。

数据安全与隐私方面,针对医疗数据涉及高度敏感资讯,可引入隐私计算和去标识化技术,实现“数据可用不可见”,并配合更严格的医疗数据使用规范,以确保病人基因、影像及病历资料不被滥用。政府或监管机构亦应推动完善医疗数据治理与共享机制,在确保隐私与安全前提下,推动区域医疗数据中心与高质量数据集建设。如引入“数据沙盒”或“安全共享平台”,允许在严格监测与限定范围内测试新型AI医疗应用,让AI能在受控环境下训练与测试,为模型训练与评估提供合规的数据基础,并明确脱敏标准与责任边界,为后续全面推广积累证据与经验。

法律与监管方面,先要做的是厘清责任归属问题,建立多方共担模式,明确界定AI医疗诊断错误时,医生、医院及AI医疗器材供应商的责任分配,并确保医生在关键环节的主导地位,保障病人权益不受损。实际应用上,可考虑构建分级分类的“AI+医疗服务”、“AI+医疗产品”监管框架,按照风险高低制定差异化的审批与备案要求,对高风险应用实施更严格的临床验证与使用监测。此外,可通过制定场景化的技术与伦理指南,包括适应症、禁忌症、医生参与要求、结果解读与告知方式等,为影像、病理、心血管、肿瘤、全科等不同场景制定AI使用规范。

(作者为创业投资者联盟召集人)

点击排行