大家好,我是无界生长,AI领域创业者,AI应用落地专家,拥有丰富的AI应用落地经验,交付各行各业AI应用几十个,付费学员3000+。
这是我的第 96 篇原创文章——《媲美DeepSeek-R1满血版,Qwen-QwQ-32B本地部署保姆级教程来了!》
私有化部署 DeepSeek-R1 满血版太贵,蒸馏版效果又太差,就不能既要又要还要吗?
还真有!阿里开源了 Qwen-QwQ-32B 推理模型(下文简称 QwQ-32B),效果媲美 DeepSeek-R1 满血版!在消费级显卡上就能跑!
以下数据清晰地展示了QwQ-32B 与当前市场上几款领先模型的性能对比,包括DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、o1-mini以及满血版的DeepSeek-R1。
QwQ-32B 模型参数量,仅为 DeepSeek-R1 模型的 1/20,算是花白菜价吃上猪肉了。
可能有些同学还不知道猪肉怎么吃,下面开始吃猪肉的保姆级教程。
访问 DeepSeek 教程https://ollama.ai/download,下载对应系统 Ollama 客户端
访问 https://ollama.com/library/qwq ,获取 ollama 部署 QwQ 模型的指令
Win + R,输入cmd
以部署 qwq:32b 模型为例
ollama run qwq
访问 https://cherry-ai.com/download ,下载Cherry Studio,安装与系统匹配的版本
按照下图流程,添加模型
新建对话,修改模型配置,就可以使用了
我是无界生长,关注我,带你一起玩转AI!如果你觉得我分享的内容对你有帮助,麻烦点赞、分享、在看,你的支持是我创作的最大动力!
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/242610.html原文链接:https://javaforall.net
