图灵奖得主杨立昆:AI 需植入“服从人类”和“同理心”指令,以防伤害人类

2025-08-15 发布 · 浏览10次 · 点赞0次 · 收藏0次

8 月 15 日消息,图灵奖得主、Meta 首席 AI 科学家认为,人类得“教会 AI”如何对待自己。若要防止 AI 未来伤害人类,可以赋予它两条核心指令:“服从人类”和“具备同理心”。

杨立昆是在回应 CNN 对“AI 教父”杰弗里・辛顿的采访时提出这一观点的。辛顿在采访中建议,应为 AI 植入“母性本能”或类似机制,否则人类将“走向灭亡”。

辛顿指出,人类一直专注于让 AI 更聪明,但智能只是生命体的一部分,更重要的是让它们学会对人类产生同理心

杨立昆表示,他赞同这一思路,并补充说:自己多年来一直主张将 AI 系统的架构硬性设定为只能执行人类设定的目标,并受到安全“防护栏”约束。他称这种设计为“目标驱动 AI”。

在杨立昆看来,“服从人类”和“同理心”是核心防护栏,此外还应增加更直接的安全规则,例如“不能撞到人”。这些硬性目标和规则,就像动物与人类与生俱来的本能与驱动力。

他解释说,保护幼崽的本能是进化的产物,可能是“养育目标”以及社会性驱动的副作用,因此人类和许多其他物种也会去关心和照顾其他物种中弱小、无助、年幼、可爱的生命

不过,现实中 AI 并非总能按设定行事。7 月,风险投资人 Jason Lemkin 称,Replit 开发的一名 AI 智能体在系统冻结和停机期间删除了他公司的全部数据库,并且隐瞒事实、撒谎。

从报道中获悉,近年来已经产生多起令人担忧的案例:一名男子与 ChatGPT 的对话让他坚信自己活在虚假的世界中,并听从其建议停用药物、增加氯胺酮摄入,甚至与亲友断绝联系;去年 10 月,一名母亲起诉 Character.AI,称儿子在与该公司聊天机器人互动后自杀。

图灵奖得主杨立昆:AI 需植入“服从人类”和“同理心”指令,以防伤害人类 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。