AI写作平台AI自然语言处理模型
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
标签:AI自然语言处理模型AIBigBang
模型开源后所有开发者可以:
1.可以直接调用
2.在我们训练的基础上使用自由语料库继续训练
3.对大模型进行微调训练以满足各种下游任务
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
标签:AI自然语言处理模型AIBigBang
模型开源后所有开发者可以:
1.可以直接调用
2.在我们训练的基础上使用自由语料库继续训练
3.对大模型进行微调训练以满足各种下游任务