匹兹堡、哈佛、斯坦福等高校教授警告:AI 或使医疗事故更难定责

2025-10-15 发布 · 浏览22次 · 点赞0次 · 收藏0次

10 月 15 日消息,据英国《卫报》13 日报道,多名专家警告,AI 在医疗领域的应用可能引发复杂的法律责任问题,当出现医疗失误时,责任认定可能变得扑朔迷离。

临床 AI 发展迅猛,研究人员已开发出多种工具,从辅助影像解读的算法到支持诊断的系统都有 AI 的力量介入。AI 也被应用于医院管理,从优化床位使用到改善供应链效率。

专家指出,AI 在有望带来多方面好处的同时也存在隐忧,包括工具有效性尚未充分验证,以及一旦患者出现不良结果,责任归属难以界定

匹兹堡大学德里克・安格斯教授表示:“肯定会出现人们认为出了问题并试图找责任方的情况。”安格斯是去年由美国医学会杂志举办的 AI 峰会所形成报告的第一作者。报告不仅分析了 AI 工具的特点和应用领域,还讨论了其带来的法律等挑战。

哈佛法学院格伦・科恩教授是报告共同作者,他表示,患者在证明 AI 产品使用或设计存在过错时可能遇到困难。一方面很难获得工具的内部运行信息,另一方面也难以提出合理的替代设计或证明不良结果是由 AI 造成。科恩教授指出:“各方可能互相推诿责任,并可能因合同约定重新分配责任或涉及赔偿诉讼,这会增加提起诉讼的难度。”

斯坦福法学院米歇尔・梅洛教授是报告作者之一,她表示,法院能够解决相关法律问题,但早期处理过程耗时且存在不确定性,会增加 AI 创新和应用生态系统的整体成本。“这种不确定性会提高 AI 创新和应用的成本。”

报告还对 AI 工具的评估提出担忧,指出许多工具未受到如美国食品药品监督管理局等监管机构的监督。安格斯指出:“临床医生关注的是健康结果的改善,但监管机构未必要求提供证明。一旦投入使用,AI 工具在不同临床环境、面对不同患者、由技能水平不同的使用者操作时,可能会出现各种不可预测的情况。审批阶段看似可行的工具,实际使用效果可能大相径庭。”

从报道中获悉,报告还指出,评估 AI 工具面临多重障碍,这类工具通常需要临床使用后才能全面评估,而现有评估方式既昂贵又繁琐。安格斯强调,需要投入资金对医疗中的 AI 工具进行充分评估,建设数字基础设施是重点。他表示:“峰会讨论发现,评估最充分的工具往往采用率最低,而最普及的工具评估最少。”

匹兹堡、哈佛、斯坦福等高校教授警告:AI 或使医疗事故更难定责 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。