
中国初创企业月之暗面(Moonshot AI)周四发布了名为Kimi 2 Thinking的新型开源人工智能模型。与当前主流模型相比,该模型在工具使用和Agent能力方面实现显著升级。
该公司表示,这款新模型被构建为”思考Agent”,能够在使用搜索、高级计算、数据检索和第三方服务等软件工具时进行逐步推理。据报道,该模型可自主执行200至300次连续工具调用,并在使用过程中进行跨工具推理。
该模型参数量达到1万亿,对开源模型而言规模相当可观。接近项目的消息人士向CNBC透露,其训练成本仅为460万美元。相比之下,同为国产模型的深度求索(DeepSeek)V3作为R1推理模型的基础,训练成本达560万美元。
AI开发者所说的参数数量,是指模型中可调节的数值,决定其处理和理解信息的方式。本质上,参数相当于数字大脑的神经元——模型拥有的参数越多,就能识别和推理更复杂的模式。但规模并非唯一要素,高效的训练方法和专用模型架构往往比参数数量更重要。
相较于OpenAI和Anthropic等公司开发前沿模型动辄数亿甚至数十亿美元的投入,月之暗面的数据凸显了行业正竞相寻找更经济高效的AI开发路径。值得注意的是,深度求索R1模型具有6.73亿参数,这意味着K2以较低训练成本实现万亿级规模,体现了算法与经济效率的持续创新。
此次发布正值英伟达CEO黄仁勋评论中国有望在AI竞赛中超越美国之后。他对比了美国各州拼凑式的监管与中国更统一的政策及能源补贴。黄仁勋一直批评对华AI芯片出口管制,认为中国终将发展替代方案。
“中国AI研究者将使用自研芯片,”这位高管五月向《金融时报》表示,”他们会选择次优方案。本土企业非常坚定,出口管制激发了他们的斗志,政府支持加速了发展。我们在中国面临激烈竞争。”
尽管训练成本低廉,月之暗面宣称Kimi K2 Thinking在现代基准测试中优于许多闭源竞品。该模型在”人类终极考试”(包含3000道研究生水平推理题的基准测试)中获得43%的分数,公司称这一成绩显著超越OpenAI的GPT-5和Anthropic的Claude Sonnet 4.5。
对软件工程师而言,新模型在HTML、React和前端编程任务上表现提升。用户可利用其Agent编码能力,将提示词转化为功能完备的响应式产品。据月之暗面介绍,该模型采用长周期规划结合自适应推理,通过分解任务、使用工具和修正假设来得出最终答案。
在部署方面,公司表示K2原生支持INT4推理——这种紧凑量化形式可减少内存占用,使其能在性能较低的硬件上运行。低比特量化提升了大规模部署的效率和延迟,但像K2这样的推理模型需执行多重认知传递,高压缩率可能影响准确性。
月之暗面称通过量化感知训练(QAT)在训练后阶段克服了这一难题,将INT4权重应用于专家混合组件。这使得K2 Thinking在保持顶尖准确性和性能的同时,INT4推理速度提升约两倍。
参月之暗面 Kimi 教程考来源:
Moonshot launches open-source ‘Kimi K2 Thinking’ AI with a trillion parameters and reasoning capabilities
发布者:Ai探索者,转载请注明出处:https://javaforall.net/266151.html原文链接:https://javaforall.net
