Ilya闹翻,奥特曼400万年薪急招「末日主管」!上岗即「地狱模式」

2025-12-29 发布 · 浏览15次 · 点赞0次 · 收藏0次

【导读】奥特曼掏出「400万+股权」招人,不是来卷模型智商,而是给OpenAI买一份「AI失控险」——一上岗就下深水、当救火队长。

奥特曼开价400万,要为OpenAI买一份「安全保险」!

近日,奥特曼发帖要为OpenAI招募一位「准备工作负责人(Head of Preparedness)」。

55.5万美元年薪,外加股权,换算成人民币大约400万起步。


在硅谷,「55.5万美元基础年薪+股权」,属于极少见的高底薪高管岗,底薪越高,往往意味着岗位稀缺、责任边界更大。

虽然OpenAI并未公开股权规模,该岗位薪酬总包可能达到百万美元级别。

与高薪相对应的是极富挑战性的工作内容。

奥特曼为这个岗位的定调就是「充满压力」「要立刻下深水」:

这会是一份压力很大的工作,而且你几乎一上来就要跳进深水区。

关键时刻的关键角色

这份工作更像是一个「救火队长」,甚至可以称为「末日主管」。

不是为了把模型做得更聪明,而是要为不断变强的模型套上「安全围栏」,管控好随之而来的风险。

用奥特曼的话说,这是一个「关键时刻的关键角色」,模型正在飞快变强,能做出很多很棒的事,但也开始带来「真实的挑战」。

他在招聘帖子中特别点名了两件事,这是在过去的一年中发现的:

模型对心理健康的潜在影响;

模型在计算机安全上强到一个新阶段,已经开始能发现「高危漏洞」。

奥特曼强调,我们在衡量能力增长方面已经有了很扎实的基础,但接下来的挑战是如何防止这些能力被滥用,如何在产品里、以及在现实世界里把这些坏处压到最低,同时还能让大家继续享受它带来的巨大好处。

他认为这是一个巨大的难题而且几乎没有先例,是一个需要「更精细理解和更细致度量的世界」。

许多听起来很不错的想法,落到现实里都会遇到一些棘手的例外和边界情况。

因此,新招募的这位「准备工作负责人」的职责,就是要解决在模型能力持续发展和应用不扩大的前提下,去设定一道安全防线:

如何用最前沿的能力去武装网络安全防守方,同时确保攻击者没法拿来作恶。

奥特曼也为这份工作定下了目标:

最理想的情况,是通过让所有系统都变得更安全来实现,比如更安全地发布在生物领域的AI能力,以及提升自我改进的系统能够更安全地运行的信心。

模型变强

风险也更加「硬核」

过去我们谈AI风险,常常像在发布天气预报:可能下雨,最好带伞。

随着大模型能力的提升,以及技术的快速渗透,当前的AI风险更像是到了乌云压城的关头:雨已经落下来了,而且风向还在变。

一方面是模型更强了。

奥特曼提到一个标志性变化:

模型在计算机安全方面进入新阶段,「开始能发现关键漏洞」。

这句话细思极恐——当模型能替你找漏洞,它同样可能替别人找漏洞。

正所谓道高一尺,魔高一丈。

另一方面,模型技术的普及也带来了更多「硬风险」,这在2025年已经看到一些苗头。

比如,模型对心理健康的潜在影响。

进入2025年我们也看到了许多关于「AI精神病」的报道:

有人把与机器人聊天当作心理治疗的替代方案,而在某些情况下,这会加剧心理健康问题,助长妄想等令人担忧的行为。

今年10月,OpenAI也曾表示正与心理健康专业人士合作,改善ChatGPT对出现精神错乱或自残等令人担忧行为的用户的互动方式。

不止心理健康,还有报道指出ChatGPT在法律文件中产生幻觉,引发大量投诉。

此外,还有ChatGPT、Sora等应用产品上线后带来的一系列诸如深度伪造以及社会伦理等方面的挑战。


比如Sora曾在2025年10月因用户生成「不尊重」内容而暂停/封禁对马丁·路德·金相关视频的生成,并同步加强历史人物肖像相关的护栏与退出机制。

因此,奥特曼要求这份工作,要把安全从能力评估、威胁建模、缓解措施做成一条可落地的链条,形成一个「连贯、严谨且可操作、可扩展的安全流程」。

填补「安全空心化」的焦虑

这次招聘,更像是对OpenAI安全团队的紧急补位与强化。

OpenAI的核心使命是以造福全人类的方式开发人工智能,从一开始它就将安全协议 (safety protocols) 作为其运营的核心部分。

然而,一些前员工表示,随着OpenAI开始发布产品以及盈利压力的增加,该公司开始将利润置于安全之上。

一个标志性事件,就是「超级对齐」(superalignment)团队的解散。


2024年5月,OpenAI「超级对齐」团队解散,该团队工作将被并入/吸收进其他研究工作。


超级对齐团队的两位共同负责人Ilya Sutskever、Jan Leike也相继离开,其中Leike在离职时还尖锐地批评了公司,公司已经迷失了确保技术安全部署的使命:

「构建比人类更聪明的机器本身就是一项危险的尝试……但在过去几年里,安全文化和流程已经让位于光鲜亮丽的产品」。

Leike表示OpenAI未能投入足够的计算资源来研究如何引导和控制那些远比我们聪明的人工智能系统。

另外一名前员工Daniel Kokotajlo也表示他辞职是因为他「对公司在通用人工智能 (AGI) 出现时能否负责任地行事逐渐失去信心」。


当时奥特曼就Leike的发帖回复,认为他说的对:「我们还有很多事情要做;我们承诺会去做」。

OpenAI联合创始人兼总裁Greg Brockman也声称公司愿意因安全问题推迟产品发布:

「首次弄清楚如何让一项新技术变得安全并非易事,我们既相信要实现巨大的潜在收益,也致力于努力降低重大风险」。

在超级对齐团队解散大概两个月后,7月AI安全负责人Aleksander Madry被调岗。


OpenAI原AI安全负责人Aleksander Madry

10月23日,OpenAI长期政策研究人员、AGI readiness团队高级顾问Miles Brundage离开OpenAI。

随着Brundage离开,AGI readiness的子团队economic research division将转到新任首席经济学家 Ronnie Chatterji之下,其余部分则分散到其他部门。

Kokotajlo曾表示,「OpenAI最初约有30人研究与通用人工智能 (AGI) 相关的安全问题,一系列的离职使得这一人数减少了近一半」。

安全团队的负责人及员工离职、调岗,项目被不断分拆、重组,由此带来的「安全空心化」焦虑,正是这次奥特曼高调招聘的大背景。

当「前沿模型」的能力逼近更高边界时,谷歌、Anthropic、OpenAI、xAI等大模型厂商在AI军备竞赛中,都要解决同一个问题:怎么在加速中不失控?

而此次招募的「准备工作负责人」的工作,则是要把不断变强的模型,在现实使用场景中转化为一个能评估、能落地、能迭代的「可执行的安全管线」。

当AI竞赛进入紧要关头,能够守住安全底线才是不败的关键。

参考资料:

https://www.businessinsider.com/openai-hiring-head-of-preparedness-ai-job-2025-12

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定极速推送!

Ilya闹翻,奥特曼400万年薪急招「末日主管」!上岗即「地狱模式」 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。