阿里巴巴通义千问团队推出了最新一代大型语言模型系列 Qwen3。它采用创新的双模推理设计,支持”思考模式”和”非思考模式”,能在复杂任务和简单问题之间灵活切换。模型支持119种语言和方言,在编码、推理、多语言理解等方面实现了显著突破。
它的旗舰模型 Qwen3-235B-A22B 在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。此外,小型 MoE 模型 Qwen3-30B-A3B 的激活参数数量是 QwQ-32B 的 10%,表现更胜一筹,甚至像 Qwen3-4B 这样的小模型也能匹敌 Qwen2.5-72B-Instruct 的性能。


以上信息来源于官网:https://qwenlm.github.io/zh/blog/qwen3/ [1]
- MacOS(Apple Silicon) / Windows / Linux ,三个系统选其一
- LM Studio
- Qwen3-30B-A3B 模型
LM Studio是一款专为本地运行大型语言模型(LLM)设计的桌面应用程序。它允许用户在个人计算机上离线下载、管理和运行各种开源大语言模型,包括Qwen3、Llama 3、Mistral等。

本地部署为什么选用 Qwen3-30B-A3B 模型?
Qwen3-30B-A3B是一个高效的MoE(混合专家)模型,总参数量为30B,激活参数仅为3B。它具有以下特点:
- 性能强大:在仅激活3B参数的情况下,性能却超过了激活参数为30B的QwQ-32B的密集模型
- 资源友好:相比同性能的密集模型,显存占用大幅降低
- 推理速度快:在推理阶段的计算量减少,提升了推理速度,适合本地部署和实时应用场景
- 完整功能:支持双模推理、119种语言和全系列工具调用能力
- 部署灵活:可在配置适中的消费级GPU上流畅运行
这使得Qwen3-30B-A3B成为本地部署的理想选择,能在保持出色性能的同时大幅降低硬件要求。如果你的设备配置较低,Qwen3-4B 提供了一个轻量级的选择,适合进行简单体验。
想要体验满血版 235B 参数的用户,其在线体验地址:https://chat.qwen.ai/ [1]
针对 Qwen3 的强大能力,我设计了一些提示词,用于测试模型的核心能力,便于快速验证。
01 推理能力
Qwen3 在数学和逻辑推理等评测中,显著超过QwQ和同尺寸的非推理模型,达到同规模业界顶尖水平。
日常数学问题测试

答案✅,思考时间花费了 1 分 43 秒。
逻辑推理测试

答案✅,列举出了所有的正确答案,思考时间花费了 5 分 53 秒。
总结:对于逻辑推理相关的问题,在默认开启模式的情况下,思考时间有些长,需要等待较长的时间,在我的观察下,思考过程中会快速的得出了正确答案,但是模型会在其中一直否定自己,花费更长时间进行验证,最后总体的思考时间较长。同时每个问题需要新开一个窗口,会出现之前已回答问题一起思考的情况。
02 人类偏好能力
创意写作、角色扮演、指令遵循能力均大幅提升,通用能力显著超过同尺寸模型。
创意写作测试提示词

角色扮演测试提示词



总结:对于创作类问题,思考时间很短,能够快速得到答案,同时回答的问题也很有趣。
03 多语言能力
Qwen3支持119种语言和方言,多语言翻译、指令理解、常识推理能力都明显提升。
多语言翻译测试提示词

多语言理解测试提示词

语言分别是:中文、西班牙语、法语和英语,但是最后一种回答使用的却是法语,显然是错误的。所以我在官方网站进行验证下是不是都有这样的问题。
满血 Qwen3-235B-A22B:

官方满血版是没有问题的,思考过程也非常好。
Qwen-30B-A3B:
千问 Qwen 教程
官方 Qwen3-30B-A3B 同样思考过程没有问题,识别出了四种语言,但回答却是错误的,多次测试都一样。
04 编码能力
前端React项目测试提示词


图片太多了,就不截取了,后面可以看我录制的视频。
算法实现测试提示词

最后如果发现 Qwen3 的思考时间过长的话,可以添加来控制:

非推理模式的速度要快的多!
如何更好地使用Qwen3?充分发挥Qwen3的能力,可以考虑以下几点策略:
- 灵活利用双模式推理:针对复杂问题启用”思考模式”,让模型进行详细推理;对于简单问题使用”非思考模式”获取快速响应。可以通过在提示词中添加”/think”或”/no_think”来控制。
- 利用多语言能力:Qwen3支持119种语言,可以直接用多种语言提问或要求模型进行多语言翻译,无需切换模型。
- 优化提示词设计:
- 提供清晰具体的指令和足够的上下文
- 对于复杂任务,将大问题分解为多个小步骤
- 使用格式化的输出要求(如JSON、表格等)获取结构化内容
- 配合工具使用:搭配Qwen-Agent可以实现更强的工具调用能力,让模型与外部工具和API交互,扩展其功能边界。
- 本地部署优化:
- 使用LM Studio等工具进行高效本地部署
- 根据硬件条件选择合适大小的模型(从0.6B到32B)
- 考虑量化版本以降低资源消耗
通过合理利用Qwen3的这些特性,无论是个人用户、研究人员还是开发者,都能在各自领域获得更高效、更智能的语言处理体验。
发布者:Ai探索者,转载请注明出处:https://javaforall.net/258791.html原文链接:https://javaforall.net
