BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务

类似的工具

封神榜-IDEA研究院
最大的开源预训练模型体系

Kimi Chat
一口气读完二十万字的小说

阿里·通义千问
一个专门响应人类指令的大模型

乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

零一万物-官网01.ai
以 Project AI2.0 之名入局大模型

ChatLaw-法律大模型
促进LLM在法律甚至其他垂直应用落地
其他人也看的工具

5118 AI智能改写
AI编辑与原创度检测,支持文章续写,智能改写等多种AI文字功能

Unity
从绝妙创意到大获成功,探索可为游戏开发生命周期的每个阶段提供帮助的解决方案

FineShare
FineShare提供两种产品 finvo...

ChatBA
帮助用户快速生成高质量的幻灯片

阿里云AI平台
阿里云AI依托阿里顶尖的算法技术,结合阿里云可靠和灵活的云计算基础设施和平台服务,帮助企业简化IT框架、实现商业价值、加速数智化转型。阿里云数十项AI能力,稳定、易用、能力突出,是AI技术应用、开发的不二之选。

sematic
让每个 ML 团队都可以访问持续学习