将您的销售前景转变为一个自动化工作流程,该流程使用Google搜索、爬虫和Claude AI分析来寻找、验证和丰富B2B潜在客户。本教程将向您展示如何使用n8n和Scrapeless创建一个强大的潜在客户生成系统。
在本教程中,我们将创建一个智能的B2B潜在客户生成工作流程,该流程:
- 定期自动触发或手动触发
- 使用Scrapeless在Google中搜索您目标市场的公司
- 分别处理每个公司URL的项目列表
- 爬取公司网站以提取详细信息
- 使用Claude AI来验证和构建潜在客户数据
- 将合格的潜在客户存储在Google Sheets中
- 向Discord发送通知(可调节为Slack、电子邮件等)
- 一个n8n实例(云或自托管)
- 一个Scrapeless API密钥(在scrapeless.com获取)
您只需登录Scrapeless仪表板并遵循下图获取您的API密钥。Scrapeless将为您提供免费试用配额。
- 来自Anthropic的Claude API密钥
- Google Sheets访问权限
- Discord webhook URL(或您偏好的通知服务)
- 基础的n8n工作流程理解
您的最终n8n工作流程将如下所示:
手动触发 → Scrapeless Google搜索 → 项目列表 → Scrapeless爬虫 → 代码(数据处理) → Claude AI → 代码(响应解析器) → 筛选 → Google Sheets或/和Discord Webhook
我们将从手动触发器开始进行测试,然后稍后添加调度功能。
- 在n8n中创建一个新工作流程
- 添加一个手动触发器节点作为起点
- 这让您能够在自动化之前测试工作流程
为什么要手动开始?
- 测试和调试每一步
- 在自动化之前验证数据质量
- 根据初步结果调整参数
现在我们将添加Scrapeless Google搜索节点来寻找目标公司。
- 单击 + 在触发器后添加一个新节点
- 在节点库中搜索Scrapeless
- 选择Scrapeless并选择搜索Google操作
将Scrapeless与n8n集成,可以让您创建高级、强大的网络抓取工具,而无需编写代码。
优势包括:
- 通过单个请求访问Deep SerpApi来获取和提取Google SERP数据。
- 使用通用抓取API绕过限制并访问任何网站。
- 使用爬虫抓取功能执行单页面的详细抓取。
- 使用爬虫爬行功能进行递归爬行并从所有链接页面检索数据。
这些功能允许您构建连接Scrapeless与350+个由n8n支持的服务(包括Google Sheets、Airtable、Notion、Slack等)的端到端数据流。
接下来,我们需要配置Scrapeless Google搜索节点。
n8n 工作流 教程
连接设置:
- 使用您的Scrapeless API密钥创建连接
- 单击“添加”,并输入您的凭据
搜索参数:
搜索查询:使用针对B2B的搜索词:
专业B2B搜索策略:
- 公司规模定位:员工:50-200,”中型市场”
- 融资阶段: “A轮”,”风险投资”,”自筹资金”
- 行业特定:”金融科技”,”健康科技”,”教育科技”
- 地理: “纽约”, “旧金山”, “伦敦”
谷歌搜索返回了一系列结果。我们需要逐个处理每家公司。
- 在谷歌搜索后添加一个项目列表节点
- 这将把搜索结果拆分成单独的项目
小贴士:运行谷歌搜索节点
- 操作: “拆分项目”
- 拆分字段: organic_results – 链接
- 包含二进制数据: false
这为每个搜索结果创建一个单独的执行分支,允许并行处理。
现在我们将爬取每个公司的网站以提取详细信息。
- 添加另一个Scrapeless节点
- 选择爬取操作(而非WebUnlocker)
使用爬虫进行递归爬取并从所有链接页面检索数据。
- 配置以提取公司数据
- 连接:使用相同的Scrapeless连接
- URL: {{ $json.link }}
- 爬取深度: 2(主页 + 一层深)
- 最大页面数: 5(限制以加快处理速度)
- 包含模式: about|contact|team|company|services
- 排除模式: blog|news|careers|privacy|terms
- 格式: markdown(更易于AI处理)
- 爬虫获取多个页面和结构化数据
- 更适合B2B,因为联系信息可能在/about或/contact页面
- 更全面的公司信息
- 智能跟随网站结构
在将爬取的数据发送给Claude AI之前,我们需要清理和正确结构化它。Scrapeless爬虫返回的数据是特定格式,需要仔细解析。
- 在Scrapeless爬虫后添加一个代码节点
- 使用JavaScript解析和清理原始爬取数据
- 这确保了AI分析的数据质量一致
Scrapeless爬虫返回的数据是一个对象数组,而不是单个对象:
- 数据结构适应:将Scrapeless数组格式转换为Claude友好的结构。
- 内容优化:提取并优先处理与业务相关的部分。
- 联系发现:自动识别电子邮件和电话号码。
- 质量评估:评估内容的丰富性和完整性。
- 令牌效率:在保留重要信息的同时减少内容大小。
- 错误处理:优雅地管理爬取失败和内容不足情况。
- 调试支持:全面的日志记录以帮助故障排除。
处理后,每个线索将具有以下结构格式:
这有助于验证数据格式并排除任何处理问题。
- 成本节约:更小、更干净的内容 = 更少的Claude API令牌。
- 更好的结果:聚焦内容提高了AI分析的准确性。
- 错误恢复:处理空响应和爬取失败。
- 灵活性:根据结果轻松调整解析逻辑。
- 质量指标:内置评估线索数据的完整性。
使用Claude AI从经过处理和结构化的爬取内容中提取和认证线索信息。
- 在代码节点后添加AI代理节点
- 添加一个Anthropic Claude节点并配置以进行线索分析
- 配置提示以提取结构化的B2B线索数据
点击AI代理 -> 添加选项 -> 系统消息并复制粘贴以下消息
系统线索提取提示:
提示结构使筛选更加可靠,因为 Claude 现在接收一致的、结构化的输入。这导致更准确的线索评分和更好的资格评估决策在工作流程的下一步。
在筛选线索之前,我们需要正确解析 Claude 的 JSON 响应,该响应可能被包装在 markdown 格式中。
- 在 AI 代理(Claude)后添加代码节点
- 配置解析并清理 Claude 的 JSON 响应
- 创建一个名为“B2B潜在客户数据库”的电子表格
- 设置列:
- 公司名称
- 行业
- 公司规模
- 地点
- 联系邮箱
- 电话
- 网站
- 潜在客户评分
- 添加日期
- 资格备注
- 下一步行动
就我而言,我选择直接使用Discord webhook
发送新合格潜在客户的实时通知。
- 为Discord webhook添加一个HTTP请求节点
- 配置Discord特定的有效载荷格式
Discord Webhook配置:
- 方法:POST
- URL:您的Discord webhook URL
- 头部:Content-Type: application/json
Discord消息有效载荷:
搜索查询:
资格标准:
- 员工人数:20-500
- 使用现代技术栈
- 拥有API文档
- 在GitHub/技术内容上活跃
搜索查询:
资格标准:
- 有客户案例研究
- 团队规模:10-100
- 专注于B2B
- 活跃的内容营销
搜索查询:
资格标准:
- 收入指标
- 多渠道存在
- 提到技术平台
- 增长轨迹信号
为最大限度地提高实用性构建您的Google Sheets:
核心潜在客户信息:
- 公司名称、行业、规模、地点
- 联系邮箱、电话、网站
- 潜在客户评分、添加日期、来源查询
资格数据:
- 资格原因、决策者
- 下一步行动、跟进日期
- 分配的销售代表、潜在客户状态
丰富字段:
- LinkedIn URL、社交媒体存在
- 使用的技术、融资阶段
- 竞争对手、最近新闻
通过额外的表跟踪工作流表现:
每日摘要表:
- 每日产生的潜在客户
- 平均潜在客户评分
- 发现的顶级行业
- 转化率
搜索性能:
- 表现最佳的查询
- 地理分布
- 公司规模细分
- 按行业的成功率
投资回报率跟踪:
- 每潜在客户成本(API成本)
- 联系时间
- 转化为机会
- 收入归属
这个智能B2B潜在客户生成工作流程通过自动化潜在客户的发现、资格评估和组织,转变了您的销售前景。通过将谷歌搜索与智能爬取和人工智能分析相结合,您可以建立一种系统的方法来构建您的销售管道。
该工作流程适应您的特定行业、目标公司规模和资格标准,同时通过人工智能驱动的分析保持高数据质量。通过正确的设置和监控,该系统成为您销售团队持续的合格潜在客户来源。
与Google Sheets的集成为销售团队提供了一个可访问的数据库,而Discord通知确保立即了解高价值潜在客户。模块化设计允许轻松适应不同的通知服务、CRM系统和数据存储解决方案。
发布者:Ai探索者,转载请注明出处:https://javaforall.net/245573.html原文链接:https://javaforall.net
