刚刚,OpenAI神秘开源模型泄露!「闪现」1分钟被删,配置被网友扒光
网友@apples_jimmy在这组模型上传Hugging Face后一分钟内就发现了。
99%的概率这就是OpenAI的开源模型——
gpt属于OpenAI,oss代表开源软件,20b和120b代表了两个参数版本。
幸运的是,在它被删除之前,Jimmy Apples保存了配置,在只有不到「1分钟」的时间窗口!
他分享了一段LLM的配置文件,极有可能是OpenAI即将开源模型的详细参数。
这组参数像是一个基于MoE(Mixture of Experts)混合专家架构的高容量模型,具备以下几个特点:
· 36层Transformer,每层可能有MoE路由;
· 大规模MoE设置(128个专家,每个token激活4个);
· 词表超过20万,可能支持多语种或代码混合输入;
· 上下文窗口为4096,但也有滑动窗口和扩展RoPE,表明模型可能具备处理更长上下文的能力;
· 使用RoPE的NTK插值版本,这是许多模型扩展上下文的一种方式(如GPT-4 Turbo使用的方式);
· 注意力头多达64个,但键/值头只有8个,意味着模型用的是是Multi-QueryAttention(MQA)。
另一位网友@secemp9似乎验证了这次「泄露」的真实性。
他不仅也在Hugging Face上发现这个模型,甚至还有一位OpenAI成员点赞了他的爆料推文。
上传这个模型的组织叫做「yofo-happy-panda」,共有三名成员。
其中,Dominik Kundel正是OpenAI的现任员工,目前负责开发者体验和SDK。
有网友猜测,所谓的提前泄露,或许是GPT-5发布前的预热?
如果真是这样的参数配置,你满意吗?
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。

游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。