最近,中国AI圈又热闹了起来。阿里巴巴-backed的北京AI初创公司“月之暗面”刚刚发布了其最新的大模型——Kimi K2 Thinking,距离上一次7月发布K2模型还不到四个月。这次更新主打“思考能力”,号称在“Agentic”(智能体)能力上超越了OpenAI的ChatGPT,能自主调用200到300个工具完成复杂任务,减少人工干预。更引人注目的是,这个模型不仅上线了官网和App,还宣布开源,直接把中国AI竞赛的火药味推到了新高度。
月之暗面 Kimi 教程
Kimi的新能力与实际表现
这次发布的Kimi K2 Thinking被定位为一个具备通用Agentic能力和深度推理能力的“思考模型”。根据官方介绍,它可以通过多轮工具调用解决复杂问题,比如编程、逻辑推理等。实测显示,在生成一个带交互功能的HTML网页原型时,Kimi仅用约3分钟就完成了任务,代码可运行,按钮、筛选等功能也都具备,整体完成度相当高,token消耗约9K。这说明它在实际应用层面确实具备较强的工程化能力。
不过,它的数学推理能力却有些“翻车”。在测试2025年国际数学奥林匹克(IMO)第六题时,Kimi花了4分钟、输出21188字的思考过程,最终给出了错误答案4048(正确答案是2112),消耗23.5K tokens。即便切换到更贵的“高速版”Kimi-k2-thinking-turbo,虽然时间缩短到2分钟,但依然答错,且token消耗飙升至38.5K。更尴尬的是,面对另一道IMO题目,模型多次尝试都卡在47000多字的思考过程中,最终“放弃思考”,没能给出任何答案。这暴露出一个问题:“会思考”不等于“能解对”,尤其是在高度抽象的数学领域,当前AI的极限依然明显。
技术底座:Kimi Linear架构的突破
其实,这次模型升级的背后,早在10月31日就埋下了伏笔——月之暗面推出了全新的混合线性注意力架构Kimi Linear,并已开源。这一架构的核心是解决传统Transformer在处理长序列时的效率瓶颈。它采用“3个KDA层+1个全注意力层”的堆叠结构,使得KV缓存减少75%,解码速度在百万级长度下比MLA快6.3倍,内存占用也大幅降低。更重要的是,它取消了显式位置编码(NoPE),由KDA层负责位置感知,提升了模型在长文本外推上的鲁棒性。实验表明,在128K长上下文任务中,Kimi Linear的平均得分全面领先MLA和GDN-H。这意味着,它不仅是性能更强,更是为未来大规模Agent系统提供了更高效的底层支撑。
成本优势与行业竞争格局
值得一提的是,Kimi K2 Thinking的训练成本据信仅为460万美元,远低于OpenAI动辄数十亿美元的投入。而DeepSeek此前推出的V3模型也声称仅花费560万美元。相比之下,中国AI公司在受限于高端芯片进口的情况下,反而走出了一条“低成本、高效率”的技术路径。从定价来看,Kimi普通版输入每百万tokens仅4元,输出16元;高速版输入8元,输出58元,价格亲民。这种“性价比路线”正吸引越来越多海外企业关注,甚至Airbnb等美国公司也开始公开表示,中国AI模型是ChatGPT的可行替代方案。
总的来看,月之暗面这波更新不只是发了个新模型,更像是在向整个行业宣告:中国的AI创新已经从“追赶”走向“并跑”,甚至在某些技术路线上开始引领。随着阿里推出Qwen3-Max-Thinking、月之暗面推进Kimi Linear,一场围绕“思考型AI”的大战才刚刚开始。
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/271466.html原文链接:https://javaforall.net
