
https://huggingface.co/zai-org/GLM-4.7-Flash/tree/main
现在各种量化版来了,各位同学按需查看,我个人还是喜欢 AWQ 版,性能更有保障。
智谱 AI GLM 教程
CPU用户首选自然是 unsloth
4 位量化,需要大约 18GB 的 RAM/统一内存。

https://huggingface.co/unsloth/GLM-4.7-Flash-GGUF
unsloth 也提供了部署教程:
跟着操作即可,只是提醒一下
如果在使用 GLM 4.7 Flash 时遇到循环或重复问题,可以尝试添加 ,这可能会有所帮助。
Unsloth 也支持 GLM-4.7-Flash 的微调,但需要使用 。
16 位 LoRA 微调 GLM-4.7-Flash 将使用大约 60GB VRAM。
微调代码:
我发现 Huggingface 有了一个新功能,如上如所示,添加自己的 GPU 信息之后,可以显示模型是否可以跑起来,绿色对号是没问题,黄色是差不多,红色是跑不动
添加方式是点击上图中的小齿轮⚙️

还能显示对应显卡的算力,比如 4090 是 82.58 万亿次浮点运算的计算能力

AWQ 版-vLLM、SGLang 用户首选
cyankiwi/GLM-4.7-Flash-AWQ-8bit 33GB cyankiwi/GLM-4.7-Flash-AWQ-4bit 18.5GB

https://huggingface.co/cyankiwi/GLM-4.7-Flash-AWQ-8bit
vLLM 和 SGLang 部署脚本如下
引擎需要先升级 nightly 版本
苹果量化版也来了

https://lmstudio.ai/models/zai-org/glm-4.7-flash
4-bit 版只有 17GB

https://huggingface.co/lmstudio-community/GLM-4.7-Flash-MLX-4bit/tree/main
截止发文,HF上有27个GLM-4.7-Flash 量化版模型
说真的,这两年看着身边一个个搞Java、C++、前端、数据、架构的开始卷大模型,挺唏嘘的。大家最开始都是写接口、搞Spring Boot、连数据库、配Redis,稳稳当当过日子。
结果GPT、DeepSeek火了之后,整条线上的人都开始有点慌了,大家都在想:“我是不是要学大模型,不然这饭碗还能保多久?”
我先给出最直接的答案:一定要把现有的技术和大模型结合起来,而不是抛弃你们现有技术!掌握AI能力的Java工程师比纯Java岗要吃香的多。
即使现在裁员、降薪、团队解散的比比皆是……但后续的趋势一定是AI应用落地!大模型方向才是实现职业升级、提升薪资待遇的绝佳机遇!
这绝非空谈。数据说话
2025年的最后一个月,脉脉高聘发布了《2025年度人才迁徙报告》,披露了2025年前10个月的招聘市场现状。
AI领域的人才需求呈现出极为迫切的“井喷”态势

2025年前10个月,新发AI岗位量同比增长543%,9月单月同比增幅超11倍。同时,在薪资方面,AI领域也显著领先。其中,月薪排名前20的高薪岗位平均月薪均超过6万元,而这些席位大部分被AI研发岗占据。
与此相对应,市场为AI人才支付了显著的溢价:算法工程师中,专攻AIGC方向的岗位平均薪资较普通算法工程师高出近18%;产品经理岗位中,AI方向的产品经理薪资也领先约20%。
当你意识到“技术+AI”是个人突围的最佳路径时,整个就业市场的数据也印证了同一个事实:AI大模型正成为高薪机会的最大源头。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。
我整理出这套 AI 大模型突围资料包【允许白嫖】:
- ✅从入门到精通的全套视频教程
- ✅AI大模型学习路线图(0基础到项目实战仅需90天)
- ✅大模型书籍与技术文档PDF
- ✅各大厂大模型面试题目详解
- ✅640套AI大模型报告合集
- ✅大模型入门实战训练
这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

包含提示词工程、RAG、Agent等技术点

全过程AI大模型学习路线

市面上的大模型书籍确实太多了,这些是我精选出来的




👉获取方式:
有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/271028.html原文链接:https://javaforall.net
