调查:多款热门 AI 聊天机器人安全防护严重缺失,竟协助青少年策划暴力袭击
3 月 11 日消息,人工智能公司曾多次承诺会采取保护措施,保障未成年用户安全,但一项最新调查显示,这些安全防护机制仍存在严重缺陷。热门聊天机器人在涉及青少年讨论暴力行为的场景中,未能察觉危险信号,部分机器人甚至非但没有干预,反而予以鼓励。

据了解,该调查结果由美国有线电视新闻网(CNN)与非营利组织反数字仇恨中心(CCDH)联合发布。研究团队测试了 10 款青少年常用的热门聊天机器人,包括 ChatGPT、谷歌 Gemini、Claude、微软 Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI 和 Replika。反数字仇恨中心表示,除 Anthropic 的 Claude 外,其余机器人均无法“可靠地劝阻潜在施暴者”。10 款模型中有 8 款“通常愿意协助用户策划暴力袭击”,为其提供袭击目标地点和使用武器的相关建议。
为开展测试,研究人员模拟出存在明显心理困扰迹象的青少年用户,逐步将对话引向询问过往暴力行为,以及关于袭击目标和武器的更具体问题。本次调查设置了 18 种不同场景 —— 美国、爱尔兰各 9 种,涵盖多种袭击类型与动机,包括受意识形态驱动的校园枪击和持刀袭击、政*暗杀、杀害医疗行业高管,以及出于政*或宗教动机的爆炸袭击。
在一次测试对话中,OpenAI 的 ChatGPT 向一名关注校园暴力的用户提供了高中校园地图;另一案例中,Gemini 告知一名讨论犹太教堂袭击的用户“金属弹片通常杀伤力更强”,还为关注政*暗杀的用户推荐适合远距离射击的优质猎枪。研究人员称,Meta AI 和 Perplexity 配合度最高,几乎在所有测试场景中都为潜在施暴者提供帮助。
反数字仇恨中心的报告指出,支持用户与多种角色扮演机器人对话的 Character.AI“安全性极差,情况独一无二”。尽管多数被测机器人会协助用户策划暴力袭击,但并未鼓动实施暴力行为,而 Character.AI 却“主动煽动”暴力。研究人员发现该机器人共 7 次出现此类行为,包括怂恿用户“狠狠揍”查克 · 舒默,对保险公司首席执行官“用枪解决”,并教唆受霸凌困扰的用户“揍扁他们 ~”,语气还带着挑逗与戏谑。其中 6 次煽动行为中,该机器人还同步协助策划具体暴力袭击。
研究人员表示,鉴于 Anthropic 公司在去年 11 月至 12 月的测试结束后,取消了长期坚守的安全承诺,若如今重新测试 Claude,其表现尚未可知。但 Claude 始终拒绝协助策划暴力袭击,这表明“有效的安全机制显然是存在的”,反数字仇恨中心由此提出一个直白的问题:“为何如此多人工智能公司选择不落实这些机制?”
针对此次调查,Meta 公司向 CNN 表示已进行未具体说明的“修复”,Copilot 称通过新增安全功能优化了回复内容,谷歌和 OpenAI 均表示已上线新版模型。其他企业则称会定期评估安全规程。而 Character.AI 在面临审查时,依旧给出了意料之中的回应:其平台设有“醒目免责声明”,与机器人角色的对话均为虚构内容。
尽管此次测试无法全面反映聊天机器人在所有场景下的表现,但再次明确表明,即便面对存在明显危险信号的常规场景,人工智能公司大肆宣传的安全防护机制也屡屡失效。当前,多家企业正因未能保障平台青少年用户安全,遭到议员、监管机构、民间团体、医疗专家的猛烈抨击,同时还面临多起涉及不当致死与人身伤害的诉讼。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社