OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先

2024-05-21 发布 · 浏览100次 · 点赞0次 · 收藏0次

5 月 21 日消息,继 OpenAI 共同创始人 Ilya Sutskever 离职之后,另一名 OpenAI 高管 Jan Leike 在 X 平台发布贴文,宣布他已经在上周离开公司。

据悉,Jan Leike 是 OpenAI 旗下 Superalignment(超级对齐)团队的共同主管,他表示最近几年 OpenAI 已经不惜内部文化,忽视安全准则,执意高速推出“吸引眼球”的产品。

经查询得知,OpenAI 在 2023 年 7 月设立 Superalignment 团队,任务是“确保那些具备‘超级智能’、‘比人类还聪明’的 AI 系统能够遵循人类的意图”。当时 OpenAI 承诺在未来的 4 年内投入 20% 的计算能力来保证 AI 模型的安全性,而根据彭博社报道,OpenAI 目前据称已经解散了 Superalignment 团队。

Leike 表示,他加入 OpenAI 的原因是“他认为 OpenAI 是世界上最适合进行 AI 安全研究的场所”。然而目前 OpenAI 领导层已经高度忽视了模型的安全性,将核心优先事项放在盈利与获取计算资源上。

截至发稿,OpenAI 的 Greg Brockman 和 Sam Altman 已经联名对 Leike 的看法作出回应,表示他们“已经提高了对于 AI 风险的认知,未来还会不断提升安全工作以应对每款新模型的利害关系”,翻译如下:

我们非常感谢 Jan 为 OpenAI 所做的一切,我们知道他将继续在外部为我们的使命做出贡献。鉴于他离职引起的一些问题,我们想解释一下我们对整体战略的思考。

首先,我们已经提高了对 AGI 风险和机遇的认识,以便世界更好地为其做好准备。我们反复展示了深度学习扩展带来的巨大可能性并分析其影响;在国际上呼吁对 AGI 进行治理(在这种呼吁变得流行之前);并且在评估 AI 系统的灾难性风险的科学领域进行了开创性的工作。

其次,我们正在为越来越强大的系统的安全部署奠定基础。首次让新技术安全化并不容易。例如,我们的团队做了大量工作以安全地将 GPT-4 带给世界,并且自那以后,持续改进模型行为和滥用监测,以应对从部署中学到的经验教训。

第三,未来会比过去更难。我们需要不断提升我们的安全工作,以匹配每个新模型的风险。去年,我们采用了准备框架来系统化我们的工作方法。

现在是谈谈我们如何看待未来的好时机。

随着模型能力的不断提升,我们预计它们将更深入地与世界整合。用户将越来越多地与由多个多模态模型和工具组成的系统互动,这些系统可以代表用户采取行动,而不仅仅是通过文本输入和输出与单一模型对话。

我们认为这些系统将非常有益并对人们有帮助,并且可以安全地交付,但这需要大量的基础工作。这包括在训练过程中对其连接内容的深思熟虑,解决诸如可扩展监督等难题,以及其他新型安全工作。在这个方向上构建时,我们尚不确定何时能达到发布的安全标准,如果这会推迟发布时间,我们也认为是可以接受的。

我们知道无法预见每一种可能的未来场景。因此,我们需要非常紧密的反馈循环,严格的测试,每一步的仔细考虑,世界级的安全性,以及安全与能力的和谐统一。我们将继续进行针对不同时间尺度的安全研究。我们也继续与政*和许多利益相关者在安全问题上进行合作。

没有现成的手册来指导 AGI 的发展道路。我们认为经验理解可以帮助指引前进的方向。我们既相信要实现巨大的潜在收益,又要努力减轻严重的风险;我们非常认真地对待我们的角色,并慎重地权衡对我们行动的反馈。

— Sam 和 Greg

OpenAI 高管 Jan Leike 离职,批判公司内部已不再将“安全”视为优先 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。