极大地提高了生产效率和数据处理能力
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
面向高校学术交流与行业合作的试用申请
快速满足不同领域、不同应用场景的需求。
可内置在客户各类业务系统中提供专用服务
复旦大模型MOSS,正式开源了
“大模型+大算力”是商汤科技在通用人工智能领域
欢迎您参与360大语言模型内测体验
强大的自然语言处理和智能交互能力
从海量数据和大规模知识中持续进化,实现从提出、规划到解决问题的全流程闭环。
百度全新一代知识增强大语言模型
一个专门响应人类指令的大模型