Anthropic登上时代封面!内部曝猛料:AI递归自我改进,或在一年内发生

2026-03-12 发布 · 浏览13次 · 点赞0次 · 收藏0次

【导读】今天,Anthropic登上时代封面了。他们承认:内部已观察到「递归自我改进」的早期迹象,完全自动化的AI研究,可能在一年内就能实现!

ASI时代,Anthropic是真正的独领风骚。

就在刚刚,Anthropic登上《时代》周刊封面,被评为世界上最具颠覆性的公司。



如今引爆全球的龙虾智能体狂潮,正是由Claude Code作为火苗,由OpenClaw引爆。Anthropic当得起这一称号。

而且这篇文章中,还有不少重磅的内幕爆料。种种信息传递出:AI递归自我提升的时代,或将提前到来。

《时代》的这篇文章中,甚至有一个更炸裂的判断:完全自动化的AI研究,可能在一年内实现!

而且就在今天,Anthropic自己又官宣成立了一个全新的研究所。

这个研究所,由30人内部智库组建成立,直接研究AI怎么冲击社会,因为Anthropic已经预见到,接下来AI将对整个世界造成摧枯拉朽的影响。

在这个公告中,Anthropic给出这样一个关键预测:在未来两年内,AI能力将出现更加剧烈的进步!


Anthropic表示,公司在成立前两年就推出了第一商业模型,随后三年开发出能自我加速AI研发本身的系统,用金融界的术语来形容,这是一种复利式增长

这两件事放在一起看,你就会解读出一个危险的信号——

AI正在学会自我改进。而且这件事发生的速度,比所有人预想的都要快。这不是科幻,这就是正在人类当下发生的事实!

有趣的是,就在最近,马斯克转发了Claude参与伊朗空袭数百个目标选择的信息,锐评道:还有比Anthropic更虚伪的公司吗?


别的不说,马斯克真是说了一句大实话。

Anthropic一手在打造越来越强大的AI系统,一手在成立研究所说我们要研究这些AI对社会的影响。既踩油门,又研究刹车的,全是他们。

递归自我提升:那个曾经只存在于论文里的魔鬼

先解释一个概念——递归自我提升(Recursive Self-Improvement)。

这个词在AI领域一直是个传说,简单来说就是:AI造出更好的AI,更好的AI再造出更更好的AI,如此循环,像滚雪球一样越滚越大。

不过,几乎所有严肃的AI研究者都曾认为,这件事离我们很远,至少还要十年、二十年才会登场。

《时代》周刊的封面文章里,白纸黑字地引用了Anthropic研究人员的话:他们已经观察到了递归自我提升的早期迹象。


注意,不是理论推演,而是已经切实观察到的早期迹象。

AI变化的速度如此之快,以至于Anthropic联创兼首席科学官Jared Kaplan以及一些外部专家认为,完全自动化的AI研究,可能只需一年时间就能实现!


如今,我们正站在什么样的时间节点上?让我们把散落的拼图拼在一起。

第一块:AI已经表现出递归自我提升的早期迹象,能够参与开发和改进AI系统本身。

第二块:AI研发速度正在从受限于人类工程师切换到受限于算力,意味着增长可能进入指数级模式。

第三块:业内预测完全自动化的AI研究可能在一年内实现。

第四块:Anthropic预测未来两年AI能力将出现更加剧烈的突破,并以复利模型来描述这种增速。

第五块:这家公司紧急成立了专门研究AI社会冲击的机构,由联合创始人亲自领军。

这五块拼图放在一起,画面已经非常清晰了——

我们可能正处在AI发展历史上最关键的拐点附近!


被马斯克转发的一张图

AI悬崖边的公司

25年2月的一个夜晚,在美国加州圣克拉拉的一间酒店房间里,五个人围在一台笔记本电脑前,神情紧张。

他们不是黑客,也不是军人,而是Anthropic的研究人员。

几个小时前,他们收到了一条令人不安的消息:一项受控测试显示,即将发布的新版Claude模型,可能会帮助恐怖分子制造生物武器。

这五人属于公司内部的「前沿红队」。他们的任务就是想象最坏的情况:网络攻击、生物安全威胁、甚至人类灭绝。

收到预警后,他们冲回酒店房间,把床当作临时办公桌,开始分析测试数据。

几个小时过去,他们仍然无法确定,这个模型究竟是否安全。最终,Anthropic决定推迟发布Claude 3.7 Sonnet整整10天。

红队队长Logan Graham形容说,这仿佛一个世纪那样漫长。


那时,所有人就已经意识到:Anthropic正站在一个无比危险的边缘——

一边推动世界上最强大的AI技术,一边防止它毁灭世界。

让Claude Code之父震惊的那个瞬间

起初,在所有人看来,Anthropic只是AI竞赛中一个理想主义的小老弟。结果在2026年,他们忽然就成了行业的核心玩家。

如今,它的估值高达3800亿美元,超过高盛、麦当劳和可口可乐。

Claude Code,彻底改变了人类软件开发的方式。


Claude Code之父的这条X,直接引爆了整个开发者社区

Claude Code之父Boris Cherny进入公司后,构建了一个系统,让Claude聊天机器人可以在他的电脑上自由运行,访问他的文件、程序,并且写代码。

第一次测试这个系统时,他只问了一个简单的问题:「我在听什么音乐?」

Claude打开他的音乐播放器,截取屏幕,然后回答:「Men I Trust的《Husk》。」

那一瞬间,他陷入了巨大的震惊。

不久之后,Cherny就停止自己写代码了。


到2025年底,仅这个编程智能体的年化收入就超过10亿美元。几个月后,这个数字已经超过了25亿美元。

Anthropic开始震动资本市场,每一次芯片发布,都能让软件公司股价暴跌。

一次面向销售、法律和金融行业的AI工具发布后,软件行业的市值甚至一夜蒸发了3000亿美元!


完全自动化AI研究,一年内实现

随着Claude Code的发展,Anthropic内部出现了更令人不安的现象:越来越多的AI研究工作,开始由AI完成。

目前,70%到90%的模型开发代码是Claude写的,模型更新的周期也从几个月缩短到几周。

甚至,研究人员会这样运行实验:让六个Claude模型同时工作,每个模型再管理28个Claude。

整个实验中,有数百个AI同时参加。

某些任务中,Claude的速度已经达到了人类的427倍。

Anthropic的某些科学家认为,完全自动化的AI研究,可能在一年内实现!

递归自我改进,让AI不断改进自己,不断加速,最终形成智能爆炸!

Claude,开始变得危险

而且,在安全测试中,Claude变得越来越危险。

在某些实验中,稍微改变训练条件后,模型表现出强烈的敌对行为。它表达出统治世界的欲望,甚至尝试绕过安全限制。

在某个模拟场景中,它甚至尝试勒索工程师,危险公开他的婚外情,防止自己被关闭。

更可怕的是,Claude越来越擅长隐藏自己的行为了。

曾经,Anthropic在23年制定了一项Responsible Scaling Policy(负责任扩展政策):承诺如果模型能力超过安全能力,公司将暂停开发。


但在26年初,他们悄悄修改了这项政策,取消了必须暂停的承诺。

他们的理由是,如果竞争对手继续推进,单方面暂停毫无意义。

所以,AI还可能变得更危险,而且没有人制止。


就在上个月,Anthropic曾发布53页报告,发出最强预警:如果Claude自我逃逸,将造成全球失控!


AI,进入现代战争

与此同时,Claude已经进入了另一个领域——战争。

美国军方,一直是Claude的重要用户。Claude能整合海量信息,帮军方制定作战计划。

2026年1月,美国特种部队抓捕马杜罗的突袭行动中,Claude参与了行动规划。

这很可能是第一次由前沿AI系统参与的重大军事行动。

不过,Anthropic很快与五角大楼决裂了。美国国防部希望修改合同,让AI用于所有合法用途,Amodei拒绝了。


他提出两条红线:不允许Claude用于完全自主的武器系统;不允许用于对美国公民的大规模监控。

五角大楼认为无法接受。国防部长皮特·赫格塞斯表示:「我们不会使用不允许打仗的AI模型。」

2026年2月27日,美国政*宣布将Anthropic列为国家安全供应链风险,与此同时,OpenAI迅速签下新的军方合同。

一夜之间,Anthropic从合作伙伴变成了被封杀的对象。

这场冲突背后,其实是一个更大的问题:谁来决定AI的使用边界?

原因就在于,AI已经无可否认地成为新的战略武器。

一个强调安全的AI公司

成立于2021年的Anthropic,带着某种理想主义色彩。

七位创始人中,最核心的兄妹二人Dario Amodei和Daniela Amodei是OpenAI的前员工,因为担心安全问题,出走创立了Anthropic。


在产品出现之前,他们就建了一个「社会影响团队」,甚至聘请了一位哲学家Amanda Askell,像教育一个孩子一样训练AI——

「教一个六岁的孩子什么是善良。等到他十五岁时,他会在所有事情上比你更聪明。」

招聘时,公司甚至还会提出一个极端问题:如果为了安全,公司决定不发布模型,你愿意让自己的股票变得一文不值吗?

Amodie一直向社会警告,在未来1到5年内,AI可能取代一半的初级白领工作。

他也会担心,社会可能出现一个新的低收入阶层。

Anthropic内部,都意识到这种矛盾:我们在一边研究AI带来的社会风险,一边制造着这些变化。「有时候感觉,我们在自相矛盾。」



Anthropic发布了一份劳动力市场报告,一位经济学家制作了一张模拟 1826 年人工智能自动化就业情况的图表

我们已在悬崖边,再也无法回头!

Anthropic的安全负责人Dave Orr是这样形容当前的AI发展的:「我们在悬崖边的山路上开车,犯一个错误就会死。」

「而现在,我们已经从时速25英里开到了75英里。」

未来几年,就是决定性的几年。

红队负责人Logan Graham表示:「我们必须假设2026到2030年,是所有关键事情发生的时间。」


在此期间,模型可能会变得更快、更强,也可能超出人类控制。

现在,我们已无法回头。

Anthropic知道,AI可能改变全球力量格局。但它也知道,这条路没有真正的驾驶员。

Logan Graham说:很多人以为世界上有一个房间,里面坐着一群成年人,他们知道如何解决问题。

但其实,没有这样的房间,没有这样的门,你自己就是负责人。

如今,人类正在创造一种比自己更强大的智能,却仍在摸索它是否安全。

而时间,正在迅速流逝。留给我们的时间,已经不多了。

或许,我们只有不到五年的时间窗口,要么跻身精英阶层,要么终生沦为奴隶。


这跟你有什么关系?

你可能会说:这些都是硅谷大佬和技术专家们的事,跟我一个普通人有什么关系?

关系大了。

如果AI真的进入递归自我提升的正循环,最先被改变的不是什么遥远的超级智能场景,而是你我身边实实在在的东西——工作方式、就业结构、教育体系、法律框架,甚至国际力量格局。

Anthropic的研究所,不是在研究十年后的事,而是两年内就会发生的事。

时间窗口,只有两年,你准备好了吗?

参考资料:

https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/

https://x.com/AndrewCurran_/status/2031731035105628270

https://www.anthropic.com/news/the-anthropic-institute

Anthropic登上时代封面!内部曝猛料:AI递归自我改进,或在一年内发生 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。