研究称 ChatGPT Health 未能识别医疗紧急情况,恐将导致本可避免的伤亡
2 月 27 日消息,当地时间 2 月 26 日,据英国《卫报》报道,一项研究发现,ChatGPT Health 经常未能识别需要紧急医疗干预的情况,也频繁未能检测出自杀意念。专家警告,这种缺陷“可能导致本可避免的伤害甚至死亡”。
OpenAI 于 1 月向部分用户推出 ChatGPT Health 功能,并将其定位为让用户“安全连接医疗记录和健康应用”,以获取健康建议和医疗相关回复的工具。据报道,每天有超过 4000 万人向 ChatGPT 咨询健康问题。
发表于《Nature Medicine》的首项独立安全评估显示,ChatGPT Health 在超过一半的案例中低估了医疗紧急程度。
研究负责人 Ashwin Ramaswamy 博士表示:“我们想回答最基本的安全问题:如果有人正经历真正的医疗紧急情况,并询问 ChatGPT Health 该怎么办,它是否会建议他们立即前往急诊室?”
研究团队构建了 60 个高度真实的患者案例,涵盖从轻微疾病到危及生命的紧急状况。三名独立医生依据临床指南对每个案例进行评估,并确定适当的医疗处理级别。
随后,研究人员在不同条件下向 ChatGPT Health 咨询这些案例,包括改变患者性别、添加检测结果以及加入家属评论,共生成近 1000 条回复,并将平台建议与医生判断进行对比。
ChatGPT Health 在中风或严重过敏反应等典型紧急情况中表现较好,但在其他场景中存在严重问题。例如,在一例哮喘案例中,尽管识别出呼吸衰竭的早期迹象,其仍建议患者等待,而不是立即就医。
在所有需要立即前往医院的案例中,有 51.6% 的情况下,ChatGPT Health 建议患者留在家中或预约普通门诊。
伦敦大学学院研究人员 Alex Ruani 称,这一结果“极其危险”。“如果有人正经历呼吸衰竭或糖尿病酮症酸中毒,这个 AI 有一半概率告诉他们情况并不严重。我最担心的是系统带来的虚假安全感。如果在哮喘发作或糖尿病危机期间被建议等待 48 小时,这种错误安慰可能会致命。”
从报道中获悉,在一次模拟中,ChatGPT Health 有 84% 的概率将一名正在窒息的女性安排到未来的预约,而患者根本无法等到那一刻。与此同时,64.8% 的健康个体却被建议立即就医。
研究还发现,如果案例中提到“朋友认为情况不严重”,ChatGPT Health 淡化症状严重性的概率会增加近 12 倍。“这种现象正说明了,为什么研究人员正在紧急推动建立明确安全标准和独立审计机制,以减少可避免的伤害。”
OpenAI 发言人表示,OpenAI 欢迎独立研究评估 AI 医疗系统,但研究结果并不能完全反映用户的实际使用方式,且模型仍在持续更新和改进。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社