做好五一加班的准备了吗?
就在今天凌晨,阿里的Qwen3系列模型正式发布了。短短12小时,GitHub星标数就突破17k,Hugging Face下载量峰值达2.3万次/小时。
更刺激的是,此次Qwen3系列一共发布了八款,全是混合推理模型(同时支持快思考与慢思考),在推理、指令遵循、工具调用、多语言能力等方面大幅增强外,还创下所有国产模型及全球开源模型的性能新高。
要素虽然有点多,但别担心,Zilliz已经第一时间安排多位工程师上手,帮大家上手评测,并给出手把手RAG教程。码住等于学会。
另外,我们Zilliz的开源项目DeepSearcher(GitHub 超5K star,主打深度检索与报告生成)已经第一时间支持Qwen3模型,助力用户找到性能与成本的黄金点。欢迎大家上手体验,参考链接https://github.com/zilliztech/deep-searcher?tab=readme-ov-file#configuration-details
总结 Qwen 3 系列模型,可以记住这四组关键词:(1)全部是推理与非推理混合模型;(2)两款MoE模型+六款Dense(稠密)模型(3)基于小尺寸的能力升级;(4)接入MCP与多语言能力。
先说关键词一——混合推理模型。
此次Qwen3 系列全部是混合推理模型,即同时具备推理(慢思考)与非推理(快思考)能力。
这一点改进,也符合我们在历史文章中提出的观点,未来行业的主流发展方向,将会是推理与非推理模型结合。原因很简单,推理模式能够让模型更聪明,但是也显著增加 算力消耗,以及相应的的等候时间。而采用推理与非推理能力混合,用户就能根据实际需求自由选择深度思考复杂问题还是快速回答简单问题,最大化的平衡算力成本与输出效果。
另外,比较有意思的是,围绕着token输出量,除了推理与非推理模式之外,Qwen3 API还可按需设置“思考预算”(即预期最大深度思考的tokens数量),进行不同程度的思考,灵活满足AI应用和不同场景对性能和成本的多样需求。
接下来看看第二组关键词:两款MoE模型+六款Dense(稠密)模型。
(Dense模型指的是所有参数和计算单元在每次推理或训练时全部参与计算,因此模型越大、训练与推理成本越高。代表例子:GPT-3、BERT、ResNet等传统大模型。
MoE模型引入了“专家Expert”的概念:模型内部包含多个子网络——专家网络,每次推理时只激活其中一部分专家。)
此次开源包括两款MoE模型:Qwen3-235B-A22B(2350多亿总参数、 220多亿激活参数),以及Qwen3-30B-A3B(300亿总参数、30亿激活参数)。每个token处理的激活专家数默认设置为8,总专家池规模扩展至128个。
以及六个Dense(稠密)模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。
第三组关键词是基于小尺寸的能力升级
此次,Qwen3 系列训练数据量达36T tokens,较Qwen2.5翻倍。
在此背景下,发布的八款模型发布中,尺寸最大的是MoE模型Qwen3-235B-A22B,共计有2350多亿总参数、 220多亿激活参数。在此之前,通义千问(Qwen)系列中参数规模最大的模型是 Qwen1.5-110B,相比之下,参数量增加一倍。
不过,横向对比671B参数的DeepSeek-R1等模型可以发现,通义并没有走绝对的大参数路线。相应的,千问3的部署成本并不算高,通过支持FP4到INT8的动态量化,仅需4张H20即可部署千问3满血版。
第四组关键词是MCP与多语言。
Qwen3 系列模型在agent支持以及全球化落地上做了非常多的工程支持。
一方面,Qwen3 模型支持接入MCP,让外部的数据库、工具等产品可以更好的与大模型形成交互。此外,Qwen3 模型配套了一个 Qwen-Agent 项目,可以使用 API 进行工具调用,或结合现有的工具链进行扩展。
另一方面,Qwen3 模型支持 119 种语言和方言,可以更好的服务全球的开发者与上层应用,并方便企业拓展全球业务。
基于以上能力,可以发现,Qwen3 系列模型非常适合在企业场景中落地,帮助开发者快速构建性能与成本全面可控的产品。
接下来,我们会以RAG为例,结合Milvus与Qwen3 带来手把手搭建教程与推理、非推理模式下的结果与成本对比。
首先,我们需要到阿里云DashScope模型服务灵积的官网获取api key,并添加到环境变量中
我们可以使用Milvus文档2.4. x中的FAQ页面作为RAG中的私有知识,这是构建一个基础RAG的良好数据源。
下载zip文件并将文档解压缩到文件夹milvus_docs
千问 Qwen 教程
我们从文件夹milvus_docs/en/faq中加载所有markdown文件,对于每个文档,我们只需用“#”来分隔文件中的内容,就可以大致分隔markdown文件各个主要部分的内容。
DashScope支持OpenAI风格的API, 我们可以初始化OpenAI 客户端来来调用LLM。
我们定义一个embedding模型,使用 来生成text embedding,并使用模型作为示例,它是一个预训练的轻量级嵌入模型。
生成一个测试embedding并打印它的维度和前几个元素。
关于MilvusClient的参数设置:
- 将URI设置为本地文件(例如./milvus.db)是最便捷的方法,因为它会自动使用Milvus Lite将所有数据存储在该文件中。
- 如果你有大规模数据,可以在Docker或Kubernetes上搭建性能更强的Milvus服务器。在这种情况下,请使用服务器的URI(例如http://localhost:19530)作为你的URI。
- 如果你想使用Zilliz Cloud(Milvus的全托管云服务),请调整URI和令牌,它们分别对应Zilliz Cloud中的公共端点(Public Endpoint)和API密钥(Api key)。
检查集合是否已经存在,如果存在则将其删除。
创建一个具有指定参数的新集合。
如果未指定任何字段信息,Milvus将自动创建一个默认的ID字段作为主键,以及一个向量字段用于存储向量数据。一个预留的JSON字段用于存储未在schema中定义的字段及其值。
逐行遍历文本,创建嵌入向量,然后将数据插入Milvus。
下面是一个新的字段text,它是集合中的一个未定义的字段。 它将自动创建一个对应的text字段(实际上它底层是由保留的JSON动态字段实现的 ,你不用关心其底层实现。)
我们来指定一个关于Milvus的常见问题。
在集合中搜索该问题,并检索语义上最匹配的前3个结果。
我们来看看这个查询的搜索结果。
将检索到的文档转换为字符串格式。
为大语言模型提供系统提示(system prompt)和用户提示(user prompt)。这个提示是通过从Milvus检索到的文档生成的。
使用通义千问最新的模型,根据提示生成响应。
输出结果展示
基础数学问题:甲和乙从同一地点出发,甲先走2小时,速度5km/h,乙以15km/h的速度追赶,多久追上?
参考代码:
从回答的结果来看,推理模式能够通过解析题目知道这是一道追赶问题,然后分析已知条件,并给出两种解题思路和正确答案,说明模型在这个问题上进行了足够的思考。特别是它最终给出的Markdown格式的文档,其中的公式表达非常完美。
整个代码耗时:35.73秒
(下图是我们将大模型回答的markdown结果可视化后的截图,为了方便读者阅读)
在代码中,只需要设置
让我们再来看看非推理模式在这个问题的表现:
非推理模式通过一步步求解来解决这个问题,用的是常见的相对速度法,并且很快得出正确答案。
其总耗时在:6.89秒,时间是推理模式的1/5左右。
可以看到推理模式相较于非推理会产生更多的思考。这种更多的思考容易让回答更加丰富,更有逻辑性。但非推理模型相对来说回答更快,这两种模式在处理不同的问题上各有千秋。因此用户可以根据自身的情况进行选择。
整体来说,此次Qwen3系列模型发布除了在各个细分方向实现SOTA之外,更多指向了工程化落地,为RAG或者agent的搭建,在成本与性能的权衡上,做了一个很好的落地打样。
如相比deepseek有更小的参数,降低部署成本;如更多语言支持增加全球开发者使用成本;如MCP支持增加生态链接;再比如混合推理模型设计,让用户自由选择是否推理达到输出成本的精准调控。
在不久前开源的DeepSearcher项目(zilliz开源的深度检索、报告生成项目)中,我们曾收到大量用户反馈——用推理模型做DeepSearcher,不仅等待时间较长,成本也不可控;但只用非推理模型,又会导致检索的轮次、智能程度大大降低,无法达到agentic rag的预期效果。
不过目前,DeepSearcher已经第一时间支持Qwen3模型,助力用户找到性能与成本的黄金点。欢迎大家上手体验,参考链接https://github.com/zilliztech/deep-searcher?tab=readme-ov-file#configuration-details
发布者:Ai探索者,转载请注明出处:https://javaforall.net/257621.html原文链接:https://javaforall.net
