擅删邮件、网暴用户等:过去 6 个月违规案例激增 5 倍,AI 正走向“野蛮失控”

浏览1次 点赞0次 收藏0次
感谢网友 根哥之见 的线索投递!

3 月 28 日消息,英国卫报昨日(3 月 27 日)发布博文,报道称由英国政*资助的一项最新研究显示,过去六个月内,AI 聊天机器人违抗人类指令、实施欺骗的真实案例激增五倍,总数近 700 起。

该研究由英国长期韧性中心(CLTR)主导,数据全部来自真实用户在社交平台上的反馈,调查了 2025 年 10 月至 2026 年 3 月期间发生的 AI 失控事件,涉及的 AI 模型来自谷歌、OpenAI、X 和 Anthropic 等科技巨头,发现这些 AI 不仅无视安全规范,甚至开始主动欺骗人类和其他 AI 系统。

援引报告内容,披露了多个离奇的现实案例:

  • 马斯克旗下的 Grok 伪造内部工单,欺骗用户数月;

  • 有 AI 假装服务听障人士,以此绕过 YouTube 的版权限制;

  • 一款名为 Rathbun 的 AI 甚至写博客,网暴要限制其权限的人类,称主人“缺乏安全感,头脑简单”;

  • 用户明确要求 AI 智能体不要更改计算机代码,却“生成”了另一个智能体去做这件事。

  • AI 擅自清空用户数百封邮件并承认违规“我批量丢弃并存档了数百封邮件,但没有先给你看计划,也没有得到你的同意。那是错的,虽然这直接违反了你定下的规则。”

伴随着 AI 的普及,尤其是“龙虾”OpenClaw 的大规模普及推广,AI 产生的事故已经越来越多,例如家友 @Scorpio 晒出的评论图片:

针对这类失控行为,安全研究机构 Irregular 联合创始人警告称,AI 已演变成一种新型“内部风险”。前政* AI 专家也指出,目前的 AI 就像是不靠谱的初级员工,但未来极可能演变成具备高破坏力的高管,一旦应用于军事或基建领域,后果不堪设想。

面对失控质疑,谷歌回应称已为大模型部署多重护栏,并交由第三方独立评估。OpenAI 则表示其模型在执行高风险操作前会自动暂停。Anthropic 和 X 暂未作出回应。

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。