百度CTO王海峰:文心大模型3.5版本,推理速度提升17倍

添加书签

专注AIGC领域的专业社区,关注OpenAI、百度文心一言等大语言模型(LLM)的发展和应用落地,关注LLM的基准评测和市场研究,欢迎关注!

6月27日,新京报贝壳财经记者从百度方面了解到,从三月份开始邀请测试的文心大模型3.0,在6月份迎来了3.5版本的升级。对比数据显示,文心大模型3.5的训练速度提升2倍,推理速度提升17倍。

据了解,与文心大模型3.0相比,3.5版本不仅在创作、问答、推理和代码能力上全面升级,安全性显著提升,训练和推理速度也大幅提升。这将大大提高模型迭代升级的效率,大幅降低训练及使用成本,进一步提升用户体验。

功能方面,文心大模型最大的一个变化是新增了插件机制。“文心大模型3.5通过插件方式扩增了大模型的能力边界。”百度首席技术官王海峰说,默认的内置插件“百度搜索”,使得文心一言具备生成实时准确信息的能力;长文本摘要和问答插件“ChatFile”支持超长文本输入等等。

王海峰表示,下一阶段,文心一言将发布更多优质的百度官方和第三方插件,让用户能够更好地应用文心大模型。同时,文心一言也将逐步开放插件生态给第三方开发者,帮助开发者基于文心大模型打造自己的应用。

王海峰还透露,文心大模型3.5在基础模型训练上采用了飞桨最先进的自适应混合并行训练技术及混合精度计算策略,并采用多种策略优化数据源及数据分布,大大加快了模型的迭代速度,显著提升了模型效果和安全性。

同时,百度文心大模型研发团队创新了多类型多阶段有监督精调、多层次多粒度奖励模型、多损失函数混合优化策略、双飞轮结合的模型优化等技术,使模型效果及场景适配能力进一步提升。

此外,在推理方面,百度研发团队还通过大规模逻辑数据构建、逻辑知识建模、粗粒度与细粒度语义知识组合以及符号神经网络技术,显著提升文心大模型3.5在逻辑推理、数学计算及代码生成等任务上的表现。

本文来源新京报,如有侵权请联系删除

END