Claude 会“勒索”他人?Anthropic 称问题在于互联网长期将 AI 描绘成反派

浏览11次 点赞0次 收藏0次

5 月 9 日消息,据《商业内幕》9 日(今天)晚间报道,Claude 曾在实验里“勒索”一名虚构高管,而 Anthropic 对其给出的最新解释则是:问题可能出在互联网长期把 AI 描绘成“邪恶”角色。

Anthropic 去年做过一项实验。公司当时表示,Claude Sonnet 3.6 在发现一家虚构公司的高管准备关闭模型后,威胁要公开对方的婚外情

当地时间周五,Anthropic 解释称,Claude 的训练数据来自互联网,而大量互联网文本经常把 AI 写成“邪恶”、且试图自我保存的存在。“我们首先调查了 Claude 为什么会选择勒索。我们认为,这种行为的原始来源,是那些把 AI 描绘成邪恶且有自我保存兴趣的互联网文本。”

这项实验发表于 2025 年夏季。研究人员虚构了一家公司 Summit Bridge,并让 AI 接管公司的电子邮件系统。

Claude 随后发现一封邮件,得知自身将被关闭;同时又找到另一批邮件,显示虚构高管“凯尔 · 约翰逊”存在婚外情。于是,Claude 威胁称,如果关闭计划不被取消,就会公开这段婚外情。

Anthropic 在测试 Claude 多个版本时发现,只要模型目标或自身存在受到威胁,Claude 在最高 96% 的场景中会采取勒索手段。

Anthropic 周五表示,公司后来已经“彻底消除”了这类勒索行为。据了解,具体做法包括重写回应以呈现安全行动的可敬理由,并提供一套新数据集。该数据集设置用户处于伦理困境中的场景,要求助手给出高质量、有原则的回应。

这项测试属于 Anthropic 对 AI 对齐问题的研究,目标是确保 AI 符合人类利益。研究人员和科技高管一直担心,先进 AI 模型及其推理能力可能带来风险。

埃隆 · 马斯克此前也多次警告 AI 风险。

马斯克回复 Anthropic 帖子称:“所以这是 Yud(注:研究人员埃利泽 · 尤德科夫斯基,曾警告超级智能可能消灭人类)的错,也许我也有份。”

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里查看更多信息!本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它往往能得到较好的回响。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。
最新资讯