【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

摘要

本文基于 TrendRadar 项目,详细拆解如何通过 Docker 本地部署一套个人专属的 AI 热点情报系统。涵盖从环境准备、Docker 镜像拉取、局域网访问配置、飞书推送修复到 Cherry Studio MCP 服务对接的全流程。通过 Nvidia 免费模型 API,实现零成本的深度热点分析与趋势追踪。

关键词: TrendRadar, Docker部署, AI热点分析, MCP服务, Cherry Studio



在这个大数据算法横行的时代,我们每天被头条、抖音等平台“投喂”大量信息,不仅容易陷入信息茧房,还浪费了大量时间筛选有效资讯。

我的核心需求很简单:

  1. 拒绝算法绑架:需要一个个人定制化的新闻推送服务。
  2. 趋势追踪:能够按周期追踪特定领域的趋势和热点。
  3. AI 深度分析:不仅要看新闻,还要 AI 帮我总结、分析情感倾向,甚至通过对话深度探索。

TrendRadar 的核心价值:

  • 零成本 AI 分析:支持接入免费的 NVIDIA 模型接口,体验“保姆级”信息提炼。
  • 定制推送:定期推送到飞书、钉钉等即时通讯软件。
  • MCP 协议支持:通过 Model Context Protocol (MCP) 协议,让 AI 工具(如 Cherry Studio)直接读取新闻数据库,进行深度对话分析。

在开始之前,请确保你拥有以下基础环境:

  • 操作系统:Ubuntu 22.04(实体机或 VMware 虚拟机均可)。
  • 网络环境:需要能够通畅访问 文心一言 ERNIE Bot 教程 GitHub 和 Docker Hub(懂得都懂,魔法环境)。
  • 基础工具:Git, Docker, Docker Compose。
  • AI 资源:大模型 API Key(推荐申请 NVIDIA 的免费 API,或者使用 DeepSeek、OpenAI)。
  • 客户端工具:Cherry Studio(用于通过 MCP 与 AI 对话)。

3.1 下载代码仓

首先,将项目代码克隆到本地:


3.2 启动 Docker 容器

⚠️ 避坑提示:官方文档中容易忽略的一点是,必须进入 子目录才能执行 compose 命令。



默认配置通常只适合本机测试,为了在局域网访问以及更符合个人习惯,我们需要修改 和 。

4.1 让 Web Server 支持局域网访问

默认情况下,Web Server 仅监听 ,导致局域网其他设备无法查看生成的 AI 新闻报告。

修改文件

修改内容:去掉 IP 限制,直接暴露端口。


同时,在 中确保开启了 Web 服务:


4.2 配置新闻源与 AI 模型

修改文件

配置 AI 模型(以 NVIDIA 免费 API 为例)

💡 小技巧:NVIDIA 提供了许多免费的 API 端点(build.nvidia.com),兼容 OpenAI 格式。model参数注意添加『openai/』头部。


定制新闻源:根据自己的兴趣保留或删除平台(如只看 GitHub、掘金、华尔街见闻)。


4.3 优化关键词匹配

修改文件

建议使用正则表达式进行精准匹配,避免误报。例如:


4.4 推送配置

config/config.yaml配置信息


在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.5 dcoker全局配置



这是本次部署中最大的坑。默认代码在推送飞书消息时,使用的是 类型,导致飞书无法渲染 Markdown 语法(如 加粗、[链接]),体验极差。

问题现象:飞书收到的消息全是 这样的源码,没有格式。

在这里插入图片描述

原因分析:飞书 API 要求 Markdown 内容必须通过 (卡片)类型的 标签发送。

🛠️ 修复方案(代码修正)

我们需要修改 Python 源码。如果你使用 Docker 映射了代码目录,可以直接修改;否则需要进入容器修改。

修正 1:

找到 函数,将原来的 类型 payload 替换为 卡片类型。


注意:同样的逻辑也需要应用到 和 中,确保所有推送入口(包括 RSS 更新通知和 MCP 工具调用)都能正确渲染 Markdown。

修正 2:

volumes中添加『- …/trendradar:/app/trendradar』



6.1 飞书推送

在这里插入图片描述

6.1 Webserver

在这里插入图片描述

部署了 MCP 服务后,TrendRadar 就不再只是一个单向的推送工具,而是可以对话的知识库。

7.1 Server 端配置

7.2 Cherry Studio 客户端配置

  1. 添加模型服务:在设置中添加 NVIDIA 或其他兼容 OpenAI 的服务商,填入 API Key。
  2. 添加 MCP 服务器
    • 名称:TrendRadar MCP
    • 类型:可流式传输的 HTTP (streamableHttp)
    • URL: (请替换为你部署机器的实际 IP)

7.3 效果展示

连接成功后,你可以在 Cherry Studio 中直接在这个 MCP 频道下提问:

Prompt

“我想了解 ‘AI’ 这个话题,请依次完成以下步骤:搜索今天的相关新闻分析最近一周的热度趋势对比各平台的关注度分析最近一周的情感倾向
请展示每个步骤的完整结果。”

AI 将会自动调用 TrendRadar 的数据库,生成包含图表数据(如热度指数、情感占比、平台覆盖率)的专业分析报告。(示例链接)



通过本次本地部署,我们成功实现了:

  1. 数据自主:所有新闻数据存储在本地 SQLite/Docker 卷中。
  2. 体验升级:修复了飞书推送的渲染 bug,阅读体验大幅提升。
  3. 智能加持:利用免费的 NVIDIA 大模型实现了零成本的热点摘要。
  4. 深度交互:通过 MCP + Cherry Studio,把“看新闻”变成了“研判情报”。

如果你也厌倦了被算法支配,不妨动手试试这套方案!

参考资料:TrendRadar GitHub 仓库飞书自定义机器人开发文档LiteLLM 模型支持列表

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/284433.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月15日 下午1:48
下一篇 2026年3月15日 下午1:49


相关推荐

关注全栈程序员社区公众号