越预警越被骂!AI三巨头陷入「奥本海默」死局
【导读】Anthropic CEO Dario Amodei因警告AI风险被网友比作奥本海默,瞬间引爆争议。但真正的问题不是他像不像奥本海默,而是所有AI领袖都陷入了同一个死循环:开发前沿技术的人警告风险,怎么做都会被骂。
3月30日,X平台上一条转发视频的评论炸开了锅。
用户@malmesburyman转发了Anthropic CEO Dario Amodei的采访片段,配文:
你真的能从这家伙身上感受到为什么杜鲁门觉得奥本海默那么令人厌恶。

视频里,Amodei正在重复他那套熟悉的论调:
我们的模型已经非常接近人类智能水平,但社会对即将到来的风险却缺乏广泛认识。

这条评论引发两极分化。支持者认为Amodei一边开发强AI一边装圣人,就像奥本海默造完原子弹后才说「手上沾满鲜血」;
反对者则认为这个类比根本站不住脚。奥本海默是在原子弹已经杀死数十万人之后才表达愧疚,而Amodei是在技术尚未造成灾难前就警告风险。
但更深层的问题是:为什么所有开发前沿AI的领袖,无论怎么做,都会被质疑动机?
Amodei的困境:坚持红线,成了供应链威胁?
Amodei不是第一次因警告AI风险被骂了。
今年2月,他拒绝了五角大楼提出的「所有合法用途」条款,坚持Anthropic的两条红线。

结果,国防部长Pete Hegseth宣布将Anthropic列为「供应链安全威胁」,特朗普下令所有联邦机构在6个月内停用Claude。
这个标签通常是用来对付外国对手的,用在美国公司身上史无前例。
Amodei在泄露的内部备忘录中直言,五角大楼和特朗普政*不喜欢Anthropic的真正原因是:
我们没有给特朗普捐款,我们没有给特朗普独裁者式的赞美,我们支持AI监管(这违背了他们的议程),我们诚实谈论了AI政策问题(比如就业替代),我们真正坚守了红线而不是与他们勾结上演「安全戏码」。
一周后,Amodei为这份备忘录的语气道歉,称「这不代表我深思熟虑的观点"」
你坚持原则,就会被当成敌人。
你警告风险并拒绝配合,就会被质疑是在求权或博取道德高地。
Altman的困境:支持红线,却被骂机会主义
如果说Amodei因坚持红线被打压,那Altman则告诉我们,即使你支持,也会被骂。
2月28日,就在Anthropic与五角大楼谈判破裂几小时后,Altman宣布OpenAI已与国防部达成协议。
他声明,OpenAI与Anthropic一样,禁止大规模监控和全自动武器。

外界炸了,指责OpenAI在关键时刻削弱了Anthropic的立场:
如果这些公司真的严肃对待安全承诺,他们本应该团结一致对抗五角大楼,而不是让政*把他们当成市场竞争对手相互利用。
更尴尬的是,OpenAI自己的员工上周刚签署了公开信支持Anthropic,反对五角大楼。
现在老板转头就签了合同,员工觉得被出卖了。
Altman在周一承认:
我们确实不应该急着在周五把这个协议公布出来。我们真心想缓和局势避免更糟的结果,但看起来就是机会主义和草率。
但即使OpenAI修改了合同条款,法律专家和观察者仍然质疑这些限制是否有实质约束力。
而Altman在内部会议上告诉员工,五角大楼明确表示OpenAI「不能参与作战决策」,公司只能提供技术专长建议,但不能对军事行动的好坏发表意 。
Hassabis的困境:十年后,世界变了
时间会改变一切,包括你的承诺。
2014年Google收购DeepMind时,Google承诺DeepMind的技术永远不会被用于军事或武器目的。
2018年,Hassabis和DeepMind联合创始人签署了公开信,呼吁建立「针对致命自主武器的强有力国际规范、法规和法律」。
但到了2025年,Google修改了AI原则,删除了不开发军事技术的承诺。
现在DeepMind的技术被捆绑进Google Cloud软件,卖给包括美国和以色列在内的多国军方。

TIME贴脸开大:「你是否为了实现AGI的目标而妥协了?」Hassabis的回答是:
我不这么认为。我们最近更新了一些政策,部分是考虑到全球地缘政*的不确定性大幅增加。
不幸的是,世界变得更加危险了。我认为我们不能再理所当然地认为民主价值观会胜出——这一点根本不清楚。所以我认为我们需要与政*合作。
今年5月,近200名DeepMind员工签署内部信,呼吁公司放弃军事合同。
在6月的内部会议上,COO Lila Ibrahim回应说,DeepMind不会设计或部署任何用于武器或大规模监控的AI应用,Google Cloud的客户受条款约束。

困境无解,但警告不能停
Amodei、Altman、Hassabis,三个人走了三条不同的路,却都被骂。
坚持红线?你是在博取道德高地,求监管优势。
妥协合作?你是伪善,言行不一。
改变立场?你是为了钱出卖灵魂。
当你既是开发者又是安全倡导者,你的每一句警告都会被解读为「你在为自己的公司谋利」。
这些预测可能是对的,也可能是错的。
但有一点是确定的。无论Amodei、Altman还是Hassabis,无论他们怎么说、怎么做,都会有人质疑他们的动机。
但或许,比起等灾难发生后再说「我早就警告过」,在争议中继续警告,仍然是更负责任的选择。
参考资料:
https://x.com/malmesburyman/status/2038599703336513613
https://x.com/TheChiefNerd/status/2038565951268946021
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
AI 中文社