BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务
类似的工具
零一万物-官网01.ai
以 Project AI2.0 之名入局大模型
Kimi Chat
一口气读完二十万字的小说
MediaGPT:中文自媒体大模型
一个针对自媒体领域进行特殊训练的模型
封神榜-IDEA研究院
最大的开源预训练模型体系
KwaiYii快意大模型
独立自主研发的一系列大规模语言模型
SparkDesk讯飞星火认知大模型
从海量数据和大规模知识中持续进化,实现从提出、规划到解决问题的全流程闭环。
他人最近看的工具
PaperAI智能降重
基于人工智能(AI)的自动论文降重系统
AI论文君
一键生成论文选题、开题报告、论文大纲、论文全文、答辩PPT
讯飞星火知识库文档问答
讯飞星火知识库文档问答,是科大讯飞基于讯飞星火大模型和星火知识库搭建的文档问答服务,能够高效检索文档信息,准确回答专业问题。
炼丹家AI
超强多种模型,在线极速体验
Tafi AI
创建自定义3D角色的最快方法
Vizard
让内容营销人员轻松创建专业...
AI 中文社
