BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务
类似的工具
K2-上海交通大学
一个地球科学的开源大预言模型
讯飞星火认知大模型
免费使用-AI写作、AI百科、AI问答
昇思大模型
在线体验为一体的AI学习与实践社区
悟道·天鹰(Aquila)
国内数据合规需求的开源语言大模型
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
BuboGPT
文本、图像和音频等多模式输入,具有将其对视觉对象的响应作为基础的独特能力。
其他人也看的工具
墨鱼Aigc公文写作
一键生成营销广告、文案、原创文章等写作服务
KreadoAI
输入关键词创作虚拟人物口播视频
悟道·天鹰(Aquila)
国内数据合规需求的开源语言大模型
5118 AI智能改写
AI编辑与原创度检测,支持文章续写,智能改写等多种AI文字功能
Roboflow
Robovision提供了一个涵盖整...
美图AI PPT
免费在线AI生成PPT设计工具
AI 中文社
