上周接了个需求,要让 AI Agent 自己去查数据库、调第三方接口,不再是只cursor 教程能聊天的花瓶。
折腾了两天 MCP 协议,终于跑通了,把踩坑经历记一下。
MCP(Model Context Protocol)是 Anthropic 搞的一个开放协议,让 LLM 能通过标准化的方式调用外部工具。简单说就是给 AI 装上手和脚。
之前用 function calling 也能做,但每个模型的实现不一样,切模型就得改代码。MCP 统一了这层,理论上写一次 tool server,所有支持 MCP 的模型都能用。
客户端接入也很简单:
MCP Server 默认 8080,跟我本地的其他服务撞了。改端口就行但文档没写清楚。
直接把 LLM 生成的 SQL 扔进数据库执行,想想就刺激。加了个白名单限制只允许 SELECT。
复杂查询超过 30 秒 MCP 就断了,得自己加 timeout 处理。
MCP 的思路是对的——标准化工具调用协议,让 AI Agent 真正能干活。目前生态还早期,但值得关注。
我现在用 ofox.ai 的聚合 API 测不同模型对 MCP 的支持情况,Claude 系列支持最好,GPT 系列也在跟进。
发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/279474.html原文链接:https://javaforall.net
