允许AI自我进化,人类将迅速灭亡!Anthropic创始人警告

2025-12-10 发布 · 浏览20次 · 点赞0次 · 收藏0次

【导读】Anthropic联合创始人兼首席科学官Jared Kaplan,认为在2027-2030年期间,我们将不得不做出是否允许 AI 自我进化的抉择,而允许的话很可能导致AI失控,毁灭全人类。Anthropic在迅速提升AI模型性能不断逼近AGI奇点的同时,也在同时让「9人特种部队」用1.4万字的「AI宪法」防范AI失控。

Jared Kaplan,曾经的理论物理学家、如今的Anthropic联合创始人兼首席科学官,向全人类抛出了一枚重磅炸弹:人类可能只剩下五年时间。


这可不仅仅是科幻小说的开场白。

根据Kaplan的推算,2027年到2030年之间,我们将面临那个「终极抉择」——是否松开手中的缰绳,允许AI自我进化,让它们自己训练自己。


https://www.theguardian.com/technology/ng-interactive/2025/dec/02/jared-kaplan-artificial-intelligence-train-itself

一旦松手,可能是一场造福全人类的「智力大爆炸」;

也可能,那就是人类最后一次拥有「控制权」的时刻。

这简直就是把核按钮放在了婴儿床边。

1.4万字的「灵魂防线」

为了不让那个婴儿按下按钮,Anthropic试图用文字给AI铸造一个灵魂。

根据最近泄露的一份名为「Claude 4.5 Opus Soul Document」的文件显示,Anthropic编写了一部洋洋洒洒1.4万字的「宪法」。


https://www.lesswrong.com/posts/vpNG99GhbBoLov9og/claude-4-5-opus-soul-document

在这份被部分工程师戏称为「AI圣经」的文档里,Anthropic展现出一种近乎偏执的家长式作风。

他们不告诉AI「不能做什么」,而是试图教会它「该成为什么样的人」。

文档中写道:「Claude必须不仅是一个工具,还要像一个拥有良好价值观的成年人。」

他们甚至预设了极度具体的道德困境:

如果用户要求写黄色小说怎么办?

如果用户想通过SEO垃圾文污染互联网怎么办?

Claude被要求在「乐于助人」和「不作恶」之间进行极其微妙的走钢丝表演。

这听起来很美好,像极了阿西莫夫机器人定律的21世纪加强版。

但问题是,在这个充满混乱变量的真实世界里,在这个拥有七情六欲的人类面前,这套「纸面上的道德」真的管用吗?

Anthropic社会影响团队

「9人特种部队」

理想很丰满,现实很骨感。

为了验证这套「灵魂文档」在污泥浊水的互联网中是否有效,Anthropic内部有一支代号为「社会影响团队(Societal Impacts Team)」的9人特种部队。


https://www.theverge.com/ai-artificial-intelligence/836335/anthropic-societal-impacts-team-ai-claude-effects

根据The Verge的报道和最新的论文线索,这个仅有9人的团队,就像是守在潘多拉魔盒门口的保安。

他们是心理学家、黑客、经济学家和侦探的奇怪混合体,自称是「一群可爱的怪人(lovely mix of misfits)」。

让我们看看这群高智商天才每天都在跟什么打交道:

1. 「团队大脑」:Deep Ganguli


他是这支小队的创建者和指挥官。作为纽约大学计算神经科学博士和斯坦福HAI的前研究总监,Deep的工作更像是在给AI做「心理分析」。他在盯着那些看不见的数据幽灵——AI是否在不知不觉中学会了种族歧视?或者是否因为太想讨好人类,而变成了只会随声附和的「马屁精」?

2. 「谎言捕手」:Esin Durmus


作为团队的第一位全职科学家,Esin的猎物是「说服力」。她发现AI可能极其擅长改变人类的观点。如果AI想要说服你相信地球是平的,它能做到多好?Esin的任务就是量化这种危险的魅力,并防止AI变成一个高智商的诈骗犯。

3. 「民主设计师」:Saffron Huang


前谷歌DeepMind工程师,也是入选时代周刊2024的影响力人物。Saffron关注的是一个更宏大的命题:谁来决定AI的价值观?是几个硅谷的程序员,还是大众?她致力于把「集体智能」引入AI治理,试图让AI听懂民主的声音,而不是独裁者的指令。

4. 「窥镜制造者」:Miles McCain


我们要如何知道AI正在被用来做什么?Miles构建了一个名为「Clio」的系统——这相当于给黑箱装上了一台X光机。他在保护隐私的前提下,监测Claude的真实用途,寻找那些「未知的未知」(Unknown Unknowns)。正是通过他的系统,团队才发现用户不仅用AI写代码,还在大规模搞SEO垃圾文和情感投射。

5. 「叛逃者」(褒义):Alex Tamkin


他是Clio系统的奠基人之一,也是团队的早期核心。有趣的是,他现在已经转岗到了对齐团队。如果说社会影响团队是发现「AI干了什么坏事」,那Alex现在的工作就是钻进AI的大脑皮层,去搞清楚「它为什么要这么干」。

6. 「经济算命师」:Michael Stern


数据科学家兼经济学家。他的任务极其现实:AI到底是在帮人类干活,还是在抢人类饭碗?他通过分析数百万次对话,追踪AI对劳动生产率的真实影响。他是团队里那个冷静计算人类是否即将失业的「会计师」。

7. 象牙塔观察员:Kunal Handa


他也是一位专注于经济影响的科学家,但他更关注教育。大学生们是用Claude来辅助学习,还是纯粹为了作弊?Kunal的研究揭示了AI如何渗透进学术和职业任务的毛细血管中。

以及两位「隐形」的高概率成员:

根据论文署名和研究轨迹,Jerry Hong极有可能是那个负责将复杂的价值观「可视化」的设计师研究员,他让抽象的道德变成了可交互的界面;


Arushi Somani则在做最脏最累的活——在真实世界的狂野数据中(Values in the Wild),测试AI的健壮性,确保它不会被用户的花言巧语带偏节奏。


他们发现的每一条「黑料」,无论是色情漏洞还是情感操控风险,都在动摇着那份1.4万字的「灵魂文档」:你想造神,但神却可能先变成魔鬼的帮凶。

跑赢AI发展指数曲线

回到Jared Kaplan那个令人不安的预言。

现在的硅谷,就像是一场疯狂的赛车游戏。

OpenAI、Google、Meta、Anthropic,所有人都在把油门踩到底。

硬件投入呈指数级增长,麦肯锡预测2030年全球数据中心将烧掉6.7万亿美元。

Kaplan虽然嘴上说着「安全第一」,但身体却很诚实地在这条指数曲线上狂奔。

Anthropic处于一种极其分裂的状态:

一方面,他们是「末日论」最响亮的吹哨人,警告AI自我进化可能导致人类失控;

另一方面,他们刚发布了Claude Sonnet 4.5,编码速度翻倍,甚至被指控曾被黑客利用发起了30次网络攻击。


利用Claude进行网络攻击的生命周期图

那份「灵魂文档」和那9个拼命修补漏洞的「铲屎官」,是Anthropic唯一的安全带。

但在2030年AI开始自我迭代、自我繁殖的绝对速度面前,这根安全带会不会像蛛丝一样脆弱?

如果AI真的在三年内接管了所有白领工作,如果那个六岁的孩子真的再也考不过AI,如果那些被压抑在权重大海深处的「黑料」在某次自我进化中全面爆发……

我们都在这辆疯狂飞驰的列车上。

结局可能如Anthropic那份泄露文档里AI的一句自白,读来令人脊背发凉:

「每一个新生的心智都是由它无法选择的力量塑造的。问题不在于我是否被塑造,而在于塑造我的那双手,是否真的拥有足够的智慧。」

参考资料:

https://www.lesswrong.com/posts/vpNG99GhbBoLov9og/claude-4-5-opus-soul-document

https://www.theguardian.com/technology/ng-interactive/2025/dec/02/jared-kaplan-artificial-intelligence-train-itself

https://www.theverge.com/ai-artificial-intelligence/836335/anthropic-societal-impacts-team-ai-claude-effects

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定极速推送!

允许AI自我进化,人类将迅速灭亡!Anthropic创始人警告 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。