原标题:AI医疗立法很有必要
随着多家医院接入DeepSeek大模型,AI医疗的安全性问题,再度引发社会关注。全国人大代表甘华田建议,应尽快制定和完善AI医疗相关法律法规,明确AI医疗的法律地位、使用边界、安全标准和伦理规范。
不同于简单的导医服务,如今的AI明显触角更深了。在医学影像识别领域,由于影像数据相对标准化,AI的准确度得到普遍认可;在健康管理领域,AI深入分析体检报告,预测疾病风险;在手术智能辅助规划领域,AI明确手术关键部位,推荐最佳手术方案,评估手术风险……去年11月,国家卫健委等三部门就发布了《卫生健康行业人工智能应用场景参考指引》,列出了84个典型应用场景。
但哪怕再不熟悉医学的人,也能意识到“AI医生”并非万能。并不是所有和疾病相关的因素,都能被量化、被机器所学习,专业判断和临床经验,传统的“望闻问切”,依然不可被替代。更重要的问题在于,医疗是一个容错率很低、厌恶不确定性的行业,但AI医疗还是新生事物,法律规制相对分散和滞后。正因如此,全国人大代表刘忠军也认为,在AI嵌入医疗实践中要更加扎实慎重,需在技术更成熟、验证更充分后引入医疗流程。
一些现实中的困境,也需要法律层面及时回应。比如,AI毕竟是机器,无法承担主体责任,那么一旦事故发生,谁来负责?是医疗设备设计者、算法提供者,还是医疗机构、医务人员?此前,一些官方文件作出了原则性的规定,严守安全红线,比如,湖南省医保局近日发布通知,严禁使用人工智能等自动生成处方。但AI即便只是作为辅助,传统的责任形式也难以简单套用,有待更加清晰的规制和指引。甚至有学者认为,随着生成式人工智能的自主性不断增强,将来能否成为医疗事故法律责任的主体或许是可以讨论的。
再者,海量数据是AI医疗的底层逻辑。一方面,“AI医生”依赖高质量的数据训练,受现实因素影响,在不同群体、地域间,一些数据的分布比例可能会失衡,如果任由算法左右决策,可能影响资源分配的公平性,甚至是医疗效果。甘华田代表提出的建立算法评价标准和伦理审查制度,无疑是不可或缺的一环。另一方面,从医学影像数据,到患者诊疗记录,再到健康档案,AI医疗涉及了大量个人信息尤其是敏感个人信息,联想到过去发生的一些医疗信息泄露事件,在《个人信息保护法》《网络安全法》等法律的基础上,根据AI医疗的行业特性,完善相关法律框架,是必要之举。
冰冷的技术不是目的,有温度的治疗才是正解。面对医疗行业的深刻革命,向“真”向“善”的技术,包容审慎的治理,一个都不能少。毕竟,AI与人并非对立,他们有着共同的“敌人”——疾病。(钟颐)
来源:南方日报