每年春节返工后,才算真正完成一个工作周期的收尾与重启。趁着返工后第一个周末的闲暇,褪去浮躁,好好复盘一下自己2025年的工作历程——从LLM到Agent的转型,从大厂到中厂的适配,每一步都藏着算法人成长的干货,尤其适合刚入门大模型、想深耕Agent领域的小白和程序员参考。
简单做个自我介绍:2022年从清华硕士毕业后,恰逢ChatGPT掀起的大模型技术革命,我果断从计算机视觉(CV)赛道转向LLM(大语言模型)算法领域,日常工作更偏向“软算法”方向,这也是很多普通算法工程师的真实工作状态,小白可以重点参考。
这里先给小白和刚入门的程序员科普下我对「软算法」的定义:区别于Infra(基础设施)大佬深耕基座模型的硬核创新,我们的工作核心是“用好现有模型、推动技术落地”——说通俗点,就是不做底层模型训练,专注于模型的实际应用,虽然常被调侃在“算法鄙视链底端”,但却是当前大模型落地最主流、最适合小白切入的方向。而2025年,整个行业的核心关键词,也从LLM本身,快速过渡到了Agent(智能体)。
1. 还要从 24 年聊起
2024 年换了一次工作,从某大厂换到了某中厂,所以 2025 年是在新司第一个完整工作年,工作内容也从 LLM 后训练逐渐过渡到了 LLM 应用。
24 年中旬入职,新公司逐渐放弃了基座模型的训练,刚刚入职的我非常忐忑。
对于算法来说,典型的鄙视链预训练->后训练->不训练,这刚入职直接给我从打入了鄙视链最低端,接触不到训练意味着少了很多实践与 know how,这对于算法长期 sense 培养算是不小的遗憾。
但事后来看,对于公司角度来说是正确的选择。2025 年 LLM 的头部效应越来越明显,不仅是国内大厂和几小龙之间的竞争越来越激烈,公司没有足够的资本投入就不如放弃基模的军备竞赛。
在日常频繁接入各家模型的体验上来看,个人感觉国内和国外的基础模型,差距反而是越来越大。
Claude 超强的 Coding 和 Agent 能力,Gemini 系列多模和生图质量,已经不是几个月就能追上的差距。
2. 在 25 年初的时候走了一些弯路
要从应用上找到一条适合 LLM 落地场景,是非常迷茫的。从一开始尝试用 LLM 在娱乐场景上做出生产力,但是 AI 写出来的文字终归是有 AI 味,要让用户能作为一种消遣方式读的津津有味,毫无竞争力。
而且这段时间工作都是调调 LLM,调调 Prompt,内心是非常焦虑。过于简单毫无挑战性的工作,甚至有些脱离算法这两个字的范畴,从工作中获取成就的正反馈很低。
好在 Agent 爆发前夕,隐隐约约有一些想法。我们能不能做一些更有生产力、更通用的工具?
找到更适合 LLM 应用落地的场景,而不是跟人类写手比谁写的文字更吸引人:由一个 Agent 来帮忙管理电脑上的各种工具,比如浏览器搜索总结、写 DOC、做 PPT。
但受限于模型的能力,在云端实现一个类似的通用 Agent 实在太难了。LLM 没有足够强大的工具调用能力,在复杂场景上经常挂掉,混乱的工具调用让任务完成率低的可怕。
后来收缩了落地场景,将方向确定为 AI 生产力,技术上简化为一些相对固定的 Workflow,从帮用户做好一份 PPT 开始。
组合 LLM 擅长的语言能力和其他 AI 模型,更好的上下文管理,解析用户上传的各种类型文件帮助 LLM 理解,从 Paddle OCR 到 MinerU 到魔改 Layout 检测模型,为了写出格式规范的 PPT,组合 LLM 的生成能力和规则后进行处理。
逐渐积累了一些用户,但是受限于固定的 Workflow,只能在有限的场景下做好,多样性很差,并没有达到想象中那么强的生产力。
3. 3 月份 Manus 横空出世
一个通用的智能体平台,自由组合各种工具,生成物可以是 DeepSearch 的研究报告,可以是 PPT。
更像之前想象中通用的生产力工具,Manus 的爆火带来一丝希望,也给业务上带来了更大的压力。
接下来是对整套系统的 Agent 化改造,如何对接 Browser Use,上下文管理,Planner 的设计,LLM API 的接入,各个 Tool 的实现,如何让 LLM 写出一份合格的 PPT 等等。
有了对的方向,更适合 LLM 的落地场景,有了对标的竞品,沉浸式的调教各个模型,对比谁的工具调用能力更强,谁的排版审美更高级。
工作状态感觉自己像一个 LLM 魔法师,每天指挥不同的模型,对比竞品不断上升的分位,逐渐在新工作中收获了一些正反馈。
6 月份系统正式上线,算是国内比较早的 Agent 平台,但面向的用户海外为主,没想到受到了市场不错的反馈,大量的用户涌入,各个群里反馈用户 Badcase,这时候开始逐渐相信对的方向+高效的努力,是可以把事情做好的。
反映到公司的股价上,上线第一天公司股票直接一波涨停,也是体验了一把代码影响股价的神奇体验。
4. 百花齐放的 Agent 平台和让更多人用好 LLM
后续的故事也就更顺理成章了,有更多优秀的 Agent 平台出现,各有专长。
通用 Agent 新星 Genspark, 专门写网页的 Lovable,做设计的 Lovart。
LLM 赋予了更多小团队无限的创造可能,一个几个人的团队,没有传统意义上的产品、研发、测试的分工,就能做到几千万的 ARR,这是传统创业中不能想象的效率。
有一天我老婆说她在用豆包给学生讲题的时候,不得不感慨,越来越多的普通人接触到 LLM 了。
从跟 Deepseek 聊聊天,到用豆包帮忙做题。有什么不懂的都问问 AI,普通人越来越会用这些智能工具,AI 也不像之前只是程序员圈子里提高工作效率的工具,也不再是一个蹭概念的热点名字。
对于 Agent 的开发来说,已经跟传统的算法岗位又有些许不同。不再需要构造数据、魔改结构、训模型、提点。
更重要的是组合不同的 LLM,管理好各个模型的上下文,定义并实现 Tools 给模型调用,最后对生成物进行评估和反馈。
观察线上的用户轨迹有哪些异常没有处理好,是不是需要加 Tools,还是兜底没兜住,还是要优化整个 Workflow。
2025 年 Agent 发展的速度实在太快,不仅仅是各式各样的名词(Workflow,MCP,Skills),如果不是亲手实践过,很难深刻的理解他们之间到底是在解决什么问题、为什么会有这些迭代和演进。
LLM 基础模型没变,但是 LLM 之上各种花哨的用法一天不看就已经被甩车尾了。
各个基座模型的能力发展令人感慨。自己在某个专有场景上训出来的模型,可能在下一个版本 Claude 模型就吊打自己训练的小模型。
文生图模型之前觉得只是一个玩具而已,油腻的 AI 感让人不适,但 Nano Banana Pro 逼真的渲染能力,过于夸张的文字渲染水平,让人不得不感慨直逼设计师的审美。manus 教程
5. 下旬
接下来几个月,陆续又上线了几个 Agent。在搭 Agent 过程中也实现了一些 Sub Agent,Skills 等所谓的新范式。
随着模型能力越来越强,搭建 Agent 过程中,从事无巨细的 Prompt Engineer 驱动模型遵循固定 workflow 来达到一个相对稳定的结果,逐渐过渡到提供最原子的工具,正交的定义好每个工具,将高频操作抽象为公共工具减少工具组合,逐步体会到 Agent 的强大之处,放手让 Agent 自己思考才会彻底激发模型的能力。
观察 Agent 工具调用轨迹是一件很有趣的事情。当用户丢给 Agent 一个极其复杂的任务,能够站在上帝时间看他是如何思考,如何规划每一步的目标,调用什么工具,当工具出现错误了以后 Agent 是如何重试调整的。
这个过程是人和 Agent 沟通的过程,有时候我像是 Agent 的老师,教给它如何处理各式各样的 Corner Case,有的时候他像是我的老师,一些解决问题的方式,总是能带来自己知识领域以外的新冲击。
进入 2026,仍是 Agent 大爆炸的一年。年前 OpenClaw 的火爆感觉不过又是营销号震惊体传播,实际看到小白真的能用 OpenClaw 实现信息订阅一键收集。
开发者用 Openclaw 解放自己的双手,将重复性的开发工作都交给 AI 自动化流程,开发范式从古法人工编程 -> Vibe Coding -> Agentic Engineering ,从关注过程到只关注结果,效率和突破性彻底起飞。
6. 正反馈与成就感
在职场中逃不开的一个话题是绩效考核。26 年的几次绩效考核一直是 S。
很重要的原因是跳槽后遇到的老板们都足够相信自己,给予了自己很多施展的空间和自由。
在业务目标的限定命题下,没有刻板要求命令与执行,而是更多让自己想办法,做探索,所以当上线后逐渐收获用户和反馈后对自己也是一种激励,算是在一个正反馈里循环。
年底跟 HR 聊天被问到这一年的工作体验如何,当时脱口而出觉得有点装逼的一句话是:“现在工作投入的原因好像不是为了完全为了钱”。
工资增长带来的反馈当然是很重要的一环,但是长期能让自己沉浸式的打工,更多的元动力是工作带来的成就感。
这种有点虚的成就感,在读书的时候,是中了论文的兴奋,是 Citation++的被认可。
当开始工作上业务为主的时候,是刷小红书看到有人安利自己写开发的 Agent 的成就。
春节回来短短两周,却突然有种追不上技术发展的焦虑。
模型进化的越来越快,小白也可以借助各种 coding 工具实现复杂的系统;作为模型开发者的基座模型门槛越来越高,非天才型选手越来越难以入局;
对 AI 应用来说,各种技术背景的工程师都可以参与进来,那么作为算法工程师的核心价值在哪里?
在各类 AI 工具的加持下,「超级个体」的作用被进一步放大。在周围同事里,能够用好 cursor/claude code 等工具的人,效率可能是古法编程的 10 倍甚至 100 倍。
26 年开局就切切实实感受到了一丝丝危机感,在算法和工程边界越来越模糊的 Agent 时代,从个人成长上来说,如何保持自己作为一个算法工程师的不可替代性?
怎么能 Follow 住学术界的新且有用的 Idea,工业界新应用与范式,我想这是 2026 年最大的难题。
额外想分享的一个话题是,从大厂到中厂/小厂后,到底有了什么变化?
作为校招后的第一份工作,第一段工作虽然带我迈入了 LLM 的大门,但总体来说工作体验并不是很好。
过于繁琐的流程将开发锁死在各个环节里。开会、拉扯、资源分配、甚至有一些复杂的人际关系。当然没有好和坏的工作,只有适不适合的工作。
当时离职的时候给自己留了一个问题:是工作就是这样的,还是自己的适应能力太差?
在新公司也工作了将近两年,这两段相近的工作年限,我想现在可以回答这个问题。
小公司或者说更像是创业公司的一种氛围,没有了大厂的流程和规范,路子可以很野。
之前的工作流程里,评一个需求一轮讨论、分工、开发、测试下来,3 个月能上线就是神速了。
而现在的工作流里,有了 idea 做出来 demo,可能上午验证完下午就可以上线,当然这种敏捷开发的方式更取决于 owner 本身的效率和 coding 质量。
对于工程师来说,研发的节奏更紧张,对于用户来说,线上的系统更加不稳定,经常出现新代码上线后系统崩掉,紧急回滚的情况。
另一个变化在于软技能
在大厂工作上下游链路很长,算法工程师更关注在训好模型,跟产品和用户离得很远,很难听到真实的反馈。
而在团队小的时候,避免不了的身兼数职。既要跟产品沟通要做什么样子,也要一起调研竞品拆解技术方案,又要自己亲自 Coding,设计评估方法,搭打分系统等等。
甚至算法和工程的编辑越来越模糊。最忙的时候,在 cursor 的帮助下甚至提交过前端的代码。
总的来说,25 年是工作成就感比较饱满的一年。
更有幸的是赶上了 LLM 这个风口,让自己或主动或被动的不断接触着新鲜的信息和技术。
当然这班列车行驶速度过快,所以 26 年的重要目标就是不时代被甩下
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【】
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是激活成功教程困局、推动AI发展的关键。
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
适用人群
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【】
发布者:Ai探索者,转载请注明出处:https://javaforall.net/273192.html原文链接:https://javaforall.net
