OpenAI突然封锁最强GPT-5.4!3000个致命Bug瞬间蒸发
【导读】OpenAI急了!在Claude Mythos泄露一周后,OpenAI正式祭出GPT-5.4-Cyber。这款专门为安全防御微调的强力模型,不仅能无源码分析恶意软件,更已自动修好3000个高危漏洞。
OpenAI竟效仿Anthropic,也开始玩上「神秘」了!
就在刚刚,OpenAI正式祭出GPT-5.4-Cyber全新模型,而且只有网络安全专家才可用。

从名字不难看出,这是一款专门为安全防御微调的强力模型。
与此同时,OpenAI在今天升级了网络安全「信赖访问计划」(Trusted Access for Cyber, TAC)。
前有Claude Mythos,后有GPT-5.4-Cyber。


GPT-5.4-Cyber震撼发布
随着模型能力的阶梯式增长,GPT-5.4 已被评定为具有「高」级别网络安全能力。
为了释放其在防御端的最大潜力,由此,OpenAI决定上线针对性更强的GPT-5.4-Cyber。

这款模型专门降低了在合法安全研究中的拒绝响应率,减少了安全专家在进行漏洞分析、代码审计时的阻碍。
而且, 安全从业者现在可以利用它分析已编译的软件。
即使没有源代码,也能高效识别恶意软件倾向、评估软件的鲁棒性。

TAC计划:建立AI时代的信任墙
OpenAI的策略核心在于赋能防御者。
通过TAC计划,官方提供了自动化身份验证,以减少安全任务中的技术限制阻碍。
其网络安全战略由三大原则指导:
准入民主化(Democratized Access)
防御工具不应该是大公司的专利。
通过身份验证(KYC),不管是个人*牛还是小团队,只要身份合法,都能用上最先进的AI来保护关键系统。
迭代式部署(Iterative Deployment)
安全能力不是实验室里闭门造车出来的。
OpenAI会通过小范围部署、不断测试模型对「越狱」和攻击的抵抗力,让模型在实战中变得更硬气。
投资生态系统韧性(Investing in Ecosystem Resilience)
通过高达1000万美元的安全资助计划、对开源安全项目的贡献(如Codex for Open Source),以及自动监测修复漏洞的 Codex Security 工具,全面提升社区的免疫力。
别以为这只是个概念,Codex Security 已经交出成绩单了:
它能自动盯代码、报漏洞、甚至直接把修复方案写好。自发布以来,它已经修好超3,000个高危和致命漏洞。
这种「代码刚写完,安全就办妥」的模式,才是未来的趋势。
封锁最强AI,交给「守门员」
几天前,Axios一篇独家报道,率先报道了这款基于GPT-5.4微调的安全模型。

实际上,在GPT-5.3-Codex上线之后,OpenAI便在内部启动了TAC的试点计划。
而且,也仅限部分人士加入,最核心的目的是,利用高能力模型加速防御性研究。
没想到,又被Anthropic抢了宣发的先机。

上一周,Claude Mythos(预览版)全方位基准测试公开,与此同时,Anhtropic联合40家巨头组成联盟发起「Project Glasswing」。
他们率先投入1亿美元,给苹果、谷歌、英伟达等顶级巨头提前访问Claude Mythos。

OpenAI等了一周,才给发牌,晚了但也没晚,毕竟所有人还都不能用上。
简单来说,Anthropic和OpenAI就是要把最强的 AI 能力,精准地交到「守门员」手里。
尽管硅谷巨头严防死守,但上周AISLE一份最新报告,给现实泼了一盆冷水——
目前一些小模型,包括GPT、DeepSeek,已经具备了Mythos可以发现部分漏洞的能力。

这意味着,AI巨头们正处于一种微妙的博弈中:既要防止自己的利刃伤人,又要抢在更危险的、不可控的模型出现之前,建立起足够强大的AI防御体系。
这场关于AI「攻击力」与「控制力」的竞赛,才刚刚拉开序幕。
参考资料:
https://openai.com/index/scaling-trusted-access-for-cyber-defense/
https://www.axios.com/2026/04/14/openai-model-cyber-program-release
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
AI 中文社