文心4.5系列模型,正式开源!

文心4.5系列模型,正式开源!

今天,我们文心4.5系列模型正式开源。现在可以在文心一言(https://yiyan.baidu.com)即刻体验最新开源能力。

文心4.5系列开源模型共10款,涵盖了激活参数规模分别为47B 和3B 的混合专家(MoE)模型(最大的模型总参数量为424B),以及0.3B 的稠密参数模型。

■ 
文心4.5系列模型开源说明

本次发布的全部模型(包括预训练权重和推理代码)和项目均已完全开源至 Hugging Face(https://huggingface.co/baidu)、GitHub(https://github.com/PaddlePaddle/ERNIE)、飞桨星河社区(https://aistudio.baidu.com/overview),更多技术细节可以下载技术报告( https://yiyan.baidu.com/blog/publication)查阅。

针对 MoE 架构,我们提出了一种创新性的
多模态异构模型结构,通过跨模态参数共享机制实现模态间知识融合,同时为各单一模态保留专用参数空间。此架构非常适用于从大语言模型向多模态模型的持续预训练范式,在保持甚至提升文本任务性能的基础上,显著增强多模态理解能力。

文心4.5系列模型均使用飞桨深度学习框架进行高效训练、推理和部署。在大语言模型的预训练中,模型 FLOPs 利用率(MFU)达到47%。实验结果显示,该系列模型在多个文本和多模态基准测试中达到 SOTA 水平,在指令遵循、世界知识记忆、视觉理解和多模态推理任务上效果尤为突出。模型权重按照 Apache 2.0协议开源,支持开展学术研究和产业应用。此外,基于飞桨提供开源的产业级开发套件,广泛兼容多种芯片,降低后训练和部署门槛。

■ 
文心4.5系列模型在 Benchmark 上效果体现

左右滑动查看更多

以下是文心4.5系列开源模型核心技术亮点:

■ 多模态混合专家模型预训练

文心4.5通过在文本和视觉两种模态上进行联合训练,更好地捕捉多模态信息中的细微差别,提升在文本生成、图像理解以及多模态推理等任务中的表现。为了让两种模态学习时互相提升,我们提出了一种多模态异构混合专家模型结文心一言 ERNIE Bot 教程构,结合了多维旋转位置编码,并且在损失函数计算时,增强了不同专家间的正交性,同时对不同模态间的词元进行平衡优化,达到多模态相互促进提升的目的。

■ 高效训练推理框架

为了支持文心4.5模型的高效训练,我们提出了异构混合并行和多层级负载均衡策略。通过节点内专家并行、显存友好的流水线调度、FP8混合精度训练和细粒度重计算等多项技术,显著提升了预训练吞吐。推理方面,我们提出了多专家并行协同量化方法和卷积编码量化算法,实现了效果接近无损的4-bit 量化和2-bit 量化。此外,我们还实现了动态角色转换的预填充、解码分离部署技术,可以更充分地利用资源,提升文心4.5 MoE 模型的推理性能。基于飞桨框架,文心4.5在多种硬件平台均表现出优异的推理性能。

■ 针对模态的后训练

为了满足实际场景的不同要求,我们对预训练模型进行了针对模态的精调。其中,大语言模型针对通用语言理解和生成进行了优化,多模态大模型侧重于视觉语言理解,支持思考和非思考模式。每个模型采用了 SFT、DPO或UPO(Unified Preference Optimization,统一偏好优化技术)的多阶段后训练。

为方便广大开发者使用需求,以下是文心4.5系列开源模型的一站式使用指南,更多项目请查看文心大模型官方 Blog

https://yiyan.baidu.com/blog/ernie4.5

 使用入门与最佳实践 

基于多年飞桨开源技术与生态系统积累,此次文心4.5模型系列开源同步升级发布文心大模型开发套件 ERNIEKit 和大模型高效部署套件 FastDeploy,为文心4.5模型及开发者提供开箱即用的工具和全流程支持。

▎基于飞桨的文心大模型开发套件 ERNIEKit,快速掌握精调、对齐等大模型全流程开发

ERNIEKit 为用户提供预训练、全参精调(SFT)、直接偏好优化(DPO)、参数高效精调与对齐(SFT-LoRA/DPO-LoRA)、训练感知量化(QAT)和训练后量化(PTQ)等大模型全流程开发支持。

要获取更详细的示例,包括使用 LoRA 的 SFT、多 GPU 配置和高级脚本,请参阅 ERNIEKit 仓库中的 examples 文件夹。

https://github.com/PaddlePaddle/ERNIE

▎基于飞桨的大模型高效部署套件 FastDeploy,实现高性能、低门槛的多硬件推理部署

FastDeploy 提供了一行代码开箱即用的多硬件部署体验,使用接口兼容 vLLM 和 OpenAI 协议。针对旗舰模型提供了产业级多级负载均衡的 PD 分离部署方案,支持丰富的低比特量化推理、上下文缓存、投机解码等加速技术。

有关详细文档、安装指南和高级配置选项,请参阅 FastDeploy 仓库

https://github.com/PaddlePaddle/FastDeploy

▎星河社区上线基于文心飞桨的最佳实践应用与项目

为方便社区开发者适配和拓展应用场景,我们提供了文心大模型多种能力的技术实践手册,涵盖对话、检索增强、知识库问答以及 SFT/DPO 模型微调示例,欢迎大家在
星河社区应用中心与精品项目中使用与探索!

 开源生态服务与活动 

截至2025年4月,飞桨文心已累计服务超2185万开发者、67万家企业,创建模型达110万。接下来,我们将联合 Hugging Face 等30+开源社区推出20节「文心飞桨・开源系列公开课」;携手国网、工行、北京大学、浙江大学、厦门大学等产业导师与高校名师打造「文心名师系列・公开课」;在星河社区 AI Studio 滚动上线包含基础概念、实操技巧、进阶学习的「动手学大语言模型」系列课程、赛事等;同期举办50+场覆盖各行业、高校、开发者的线下「文心开源开放日活动」;同时,在北京、上海、深圳等10余个城市启动「文心开源服务站」,为文心飞桨应用开发和科研创新提供一揽子生态服务支持。

飞桨与文心同行,持续与社区伙伴,共同推进人工智能最新开源成果繁荣。

■ 相关链接:

https://yiyan.baidu.com/blog/posts/ernie4.5 

https://yiyan.baidu.com

https://huggingface.co/baidu

https://github.com/PaddlePaddle/ERNIE

https://cloud.baidu.com/doc/WENXINWORKSHOP/s/4mchtzl8s

https://aistudio.baidu.com/overview

https://modelscope.cn/organization/PaddlePaddle

https://aistudio.baidu.com/experthub

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/269749.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午3:51
下一篇 2026年3月12日 下午3:52


相关推荐

关注全栈程序员社区公众号