Multi-agent结合MCP已经成为非常明确的新一轮发展趋势,但日常工作发现,很多刚接触的小伙伴还在受“如何编写一个能完成自己预期需求的prompt”这一需求而感到困扰。那么结合Multi-agent,我们不妨借助Trae来在不写一行代码的情况下,就能设计并实现一个多智能体合作完成prompt自动迭代生成的系统,Let’s do it!
不同于我们之前采用langroid的选型,本期我们将采用langchain,这里做出变更的原因主要在于langchain似乎大家使用的更为广泛,但在易用性上本文仍然推荐langroid,感兴趣的小伙伴可以参看我们前一系列中的内容。
- Multi-Agent: langchain(python)
- Agent 智能体
LLM部署(同前一系列):
- 需所选定的Multi-agent框架支持,理论上流行的框架目前都支持类openai的接口方式来接入远程大模型,或者是本地部署的LLM模型,甚至是类似于coze这种直接选取即可。
- 考虑到本地部署模型无合规风险,query无额外限制(如速率限制),且免费,本项目以Ollama部署本地模型为例,进行展示。
- ollma使用 & ollma提供的模型列表

workflow
- 用户需求
- 包括用户想要设计一个什么样的prompt
- 针对这个想设计的prompt,用户需提供一个预期输入和相应的预期输出
- Main Agent
- 根据用户需求和预期输入输出,生成初始Prompt
- 根据反馈迭代Prompt,当超出最大迭代次数或当前调整后的prompt已达成需求,则输出最终prompt
- Validator Agent
- 读取prompt并加载,以预期输入为输入,得到实际输出,对比预期输出,输出Output差异
- Analysis Agent
- 分析Output差异,向Main Agent提出针对性的反馈调整意见

环境准备
- 部署本地LLM:
- 下载安装ollama

- pull下来模型,你可以按需选择
- 下载安装ollama
- 安装langchain,langgraph等相关依赖
requirements.txt为当前项目依赖的python lib信息,如下:
Coding
IDE:Trae 或 Trae CN 本文兼具使用Trae的Builder和Chat模式,受限于对话记录较长,此处仅展示部分示例:
- 最初始的需求:
- 迭代:
以下让我们以代码形式来解读最终Trae生成的本文框架:
1.创建工作流:首先让我们按照上述方案设计里的workflow来创建一个工作流
2.实现工作流中的关键节点:
- generate_prompt(对应MainAgent):
- validate_prompt(对应validatorAgent):
- generate_feedback(对应AnalysisAgent):
- check_completion(用来检查迭代后的prompt是不是ok,或者超过最大迭代次数了):
3.实现关键Agent处理逻辑:
- Main Agent:
- Validator agent:
- Analysis agent:(上述validator agent主要调用analysis agent来识别差异)
- Feedback agent:
4.设计main函数入口,接收用户诉求和预期输入输出,启动整个多agent合作的workflow:
感觉还行小伙伴们可以试试

配合上MCP/Function Calling以及RAG,大有可为哦~冲!冲!冲!

喜欢的话,请给个点赞三连哦(づ ̄ 3 ̄)づ
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/243974.html原文链接:https://javaforall.net
