关注公众号

关注公众号

手机扫码查看

手机查看

喜欢作者

打赏方式

微信支付微信支付
支付宝支付支付宝支付
×

百川智能发布Baichuan 2大模型,将公开详细技术报告

2023.9.10

原文地址:http://news.sciencenet.cn/htmlnews/2023/9/508206.shtm

近日,在北京市科委、中关村管委会和北京市海淀区政府的指导下,以“百川汇海,开源共赢”为主题的大模型发布会在京召开。会上,百川智能宣布正式开源微调后的Baichuan 2-7B、Baichuan 2-13B、Baichuan 2-13B-Chat与其4bit量化版本,并且均为免费可商用。

64faa5d8e4b0e807c6f8cd04.png

 中国科学院院士张钹致辞 主办方供图

据悉,Baichuan2-7B和Baichuan2-13B将对学术研究完全开放。百川智能此次还开源了模型训练的Check Point,并宣布将发布 Baichuan 2 技术报告,详细介绍Baichuan 2 的训练细节,帮助大模型学术机构、开发者和企业用户更深入地了解其训练过程,更好地推动大模型学术研究和社区的技术发展。

中国科学院院士张钹在致辞中指出,当前我国推出的大模型主要集中于垂直领域的应用上,目前关于大模型本身的研究亟待推进。他认为,目前世界上对大模型的理论工作原理、产生现象等仍不清楚,只有将这些问题研究清楚,才能发展出具有中国特色的大模型。

百川智能相关负责人介绍说,Baichuan 2-7B-Base 和 Baichuan 2-13B-Base,均基于 2.6万亿高质量多语言数据进行训练,在保留了上一代开源模型良好的生成与创作能力,流畅的多轮对话能力以及部署门槛较低等众多特性的基础上,两个模型在数学、代码、安全、逻辑推理、语义理解等能力有显著提升。其中Baichuan 2-13B-Base相比上一代13B模型,数学能力提升49%,代码能力提升46%,安全能力提升37%,逻辑推理能力提升25%,语义理解能力提升15%。

此外,本次开源的两个模型在各大评测榜单上也表现优秀,在MMLU、CMMLU、GSM8K等几大权威评估基准中,远远领先LLaMA2,相比其他同等参数量大模型,表现也十分亮眼,性能大幅度优于LLaMA2等同尺寸模型竞品。尤其是,根据MMLU等多个权威英文评估基准评分 Baichuan2-7B以70亿的参数在英文主流任务上与130亿参数量的LLaMA2持平。

推荐
关闭