百度发布文心大模型 X1.1、开源新模型,王海峰:飞桨文心生态开发者达 2333 万

百度发布文心大模型 X1.1、开源新模型,王海峰:飞桨文心生态开发者达 2333 万

百度发布文心大模型 X1.1、开源新模型,王海峰:飞桨文心生态开发者达 2333 万

9月9日,在WAVE SUMMIT深度学习开发者大会上,百度正式发布文心大模型X1.1,并推出飞桨框架v3.2、文心快码3.5S等系列技术成果,全面展示其在大模型研发、训练、部署及应用层面的领先能力。

百度首席技术官王海峰发布文心大模型X1.1,该模型为基于文心大模型4.5训练的深度思考模型,已在事实性、指令遵循和智能体任务能力上实现显著突破。用户可通过文心一言官网、文小言APP及百度智能云千帆平台使用该模型。

X1.1采用迭代式混合强化学习训练框架,结文心一言 ERNIE Bot 教程合混合强化学习与自蒸馏数据迭代训练,整体性能持续优化。相比前代X1,其事实性提升34.8%,指令遵循提升12.5%,智能体任务表现提升9.6%。

在多个权威基准测试中,文心大模型X1.1整体表现超越DeepSeek R1-0528,在部分任务中具备领先优势;与GPT-5、Gemini 2.5 Pro等国际顶尖模型相比,效果持平。

百度发布文心大模型 X1.1、开源新模型,王海峰:飞桨文心生态开发者达 2333 万

文心大模型X1.1在多项基准评测中达到SOTA水平

百度AI技术生态总经理马艳军发布飞桨(PaddlePaddle)框架v3.2,同步推出ERNIEKit、FastDeploy、PaddleCFD和PaddleMaterials四大开发套件,全面降低大模型从训练到部署的应用门槛。

飞桨v3.2通过计算优化、并行策略和原生容错三大升级,显著提升大模型训练效率。在ERNIE-4.5-300B-A47B模型预训练中,MFU达47%。同时增强对类CUDA芯片的适配能力,算子内核复用率最高达92%,支持Safetensors权重格式及生态加速库一键接入,有效降低部署成本。

大模型高效部署套件FastDeploy通过模型压缩与推理协同优化,显著提升端到端性能。ERNIE-4.5-300B-A47B模型在50ms时延下实现输入57K tokens/秒、输出29K tokens/秒的高吞吐。

面向科研领域,PaddleCFD和PaddleMaterials两大AI科学计算套件可提升流体力学与材料科学研究效率,缩短研发周期,提高任务精度。

百度宣布开源最新思考模型ERNIE-4.5-21B-A3B-Thinking,该模型在逻辑推理、数学计算、代码生成与工具调用等任务中表现卓越。同时开源大规模计算图数据集GraphNet,包含超2700个模型计算图及标准化评测体系,填补AI编译器测试基准空白。

ERNIEKit提供高效模型后训练方案,仅需4张GPU即可完成对ERNIE-4.5-300B-A47B模型的调优。目前,飞桨文心生态开发者已达2333万,服务企业76万家。

百度智能代码助手文心快码升级至3.5S版本(Super Synergistic Agents),引入多智能体自协同机制,打造“一人即团队”的新型开发模式。

百度副总裁陈洋介绍,此次升级主要体现在三方面:一是智能体任务理解与分解能力增强,执行更精准;二是由单智能体转向多智能体动态协同,可自主生成多个智能体联合处理复杂任务;三是构建基于Rules与MCP的统一经验库,强化团队知识沉淀与协作。

数据显示,文心快码已服务超1000万开发者。在百度内部,AI生成代码占比达整体新增代码的45%,其中Top 10%的Agent用户AI生成代码比例超过75%。

百度集团副总裁吴甜表示,大模型能力的持续提升正催生更多创新应用,如剧本驱动的多模协同数字人技术,已实现语言、声音与形象的高度协调,推动超拟真数字人直播等场景落地。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/265086.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午8:14
下一篇 2026年3月12日 下午8:15


相关推荐

关注全栈程序员社区公众号