Coze 保姆级教程(上):从 0 到 1 上手,新手也能轻松搞定

Coze 保姆级教程(上):从 0 到 1 上手,新手也能轻松搞定

本文是学习完黑马程序员的coze教程做的笔记,适合不想看视频快速入门的人,或者是想要回顾视频知识点使用


1. Agent和大模型的区别

企业面临的痛点

  • 客服困境:重复问题占比80%
  • 创作瓶颈:日产出低
  • 数据门槛:需要专业分析师
  • 个性化难题:人工成本高

为什么ChatGPT不够?

  • 知识过时:无法获取最新信息
  • 无法联网:知识停留在训练时间
  • 深度不足:缺乏专业领域知识
  • 不能执行:无法完成实际操作

AI Agent = AI管家
AI Agent是能够感知环境、自主决策、使用工具完成任务的智能体
![[attachments/Pasted image 20260112124601.png]]

  • Tools:工具,调用各种外部能力,突破大模型自身限制
  • Memory:记忆,得要有短期记忆和长期记忆
    • 短期记忆:根据上下文
    • 长期记忆:外挂知识库,根据经验学习
  • Planning:自主性,将复杂的任务拆解成子任务

AI Agent vs ChatGPT:能力对比&核心区别
能力对比

2. 了解Coze智能体开发平台

什么是coze?
coze主页

  1. 个人空间:存储和管理Bot
  2. 创建Bot:快速创建AI-Bot
  3. 资源库:为Bot提供数据等资源
  4. 插件商店:为Bot提供扩展能力
  5. 作品社区:优秀Bot作品开放平台

coze空间: https://www.coze.cn/space

接下来的章节其实就是在coze完成下面任务

完整步骤
Step1:让Bot听懂人话

  • 重点:实现提示词工程

    Step2:让Bot专业
  • 重点:实现RAG应用

    Step3:让Bot做事
  • 重点:实现插件制作

    Step4:让Bot工作
  • 重点:实现工作流的编排

    Step5:让Bot应用
  • 重点:发布运营,触达用户

掌握提示词的技巧


1. 什么是Prompt提示词

提示词=与AI沟通的“说明书”
提示词prompt 开发者赋予bot的身份、能力和行为规划,它决定了bot的响应质量和风格
提示词是搭建智能体的第一步

如何设计提示词
提示词4个关键要素
4个关键词

  1. 角色定位
    让bot扮演某个角色:角色越具体=回复越专业
    角色定位
  2. 技能描述
    让bot知道做什么,什么动作,什么目标,动作是唯一的
    技能描述
  3. 输出格式
    让bot知道怎么做,明确格式要求
    输出格式
  4. 约束条件
    给bot设定边界
    约束条件

2. Coze中如何应用到prompt

系统提示词:

  • 定义:大模型角色定位+回复逻辑
  • 位置:在agent的人设与回复逻辑中设置
  • 作用:持续影响整个会话响应模型

用户提示词:

  • 定义:用户直接提出的具体指令或问题
  • 位置:对话框中输入
  • 作用:指导模型执行特定任务

系统提示词+用户提示词共同作用,bot才能更能理解人话

如何在coze中设置提示词
coze目前支持的提示词设计方法:
提示词

常用方式:编写提示词+AI调优

3. 案例实践:高情商职场回复助手

创建智能体
在这里插入图片描述

输入智能体的功能、名称
在这里插入图片描述

这个时候就进入到创建的智能体工作页面
在没有提示词的时候提问是默认场景
在这里插入图片描述

找到小灯泡,里面有coze官方的提示词库
在这里插入图片描述

这个通用的结构,实际上就是prompt 如何设计提示词,提示词4个关键要素再多加一个工作流
Coze 保姆级教程(上):从 0 到 1 上手,新手也能轻松搞定


在这里插入图片描述
使用自动提示词优化,将提示词扩展为专业的格式
在这里插入图片描述


掌握知识库和RAG技术


1. 什么是RAG

问题所在:

  • 知识过时,无法回答
  • 用户体验感差
  • Bot价值大打折扣

解决方案:RAG检索增强技术

rag是结合知识检索和语言生成的人工智能技术,主要用于大语言模型幻觉问题

在这里插入图片描述

  • 没有rag时:直接将用户的问题quary送入llm大扣子 Coze 教程模型得到结果
    • 完全依赖于大模型自身的能力,大模型想说什么就说什么
  • 有了rag:
    • 将用户的问题query先和知识库做相关性检索,检索出和问题相关的Context(上下文)
    • 再将query和context融合拼接得到一个完整的结果,result
    • 将第二步融合的结果result送入大模型得到最后的结果

基本原理

在生成回答时,先从知识库中检索相关文档,将检索到的文档与原始问题一起输入llm,llm基于检索内容生成最终答案

rag解决什么问题?

大模型幻觉问题或企业中的私有化问题

2. RAG中的知识库如何构建

知识库构建:文档准备
在这里插入图片描述

文档预处理建议:

  • 清理无关内容(广告、水印)
  • 按主题分类整理
  • 文件命名规范(含关键信息)
  1. 知识库构建:文档切片
  2. 文档切片:为了适应大语言模型的上下文长度限制,并提升检索的精确度和效率
    在这里插入图片描述

一般选择方式:

  1. 知识库构建:文档向量化
  2. 文档向量化:将切分后的文本进行向量数字化,便于计算问题和文档的相似性
    在这里插入图片描述

向量化作用

  • 语义理解
  • 相似度计算
  • 快速检索

从关键词匹配到语义匹配的飞跃

3. 案例实战:《红楼梦》人物关系图谱

需求:再看群像类作品,如《红楼梦》时,时常会出现记不住人物的情况,所以做了这个人物关系图谱,结构化人物关系数据

1. 创建《红楼梦》人物关系图谱知识库

基本操作步骤(有的步骤是一体化执行的)
Step1:进入资源库

  • Coze左侧菜单资源库

Step 2:创建知识库

  • 资源知识库命名“《红楼梦》人物关系图谱”

Step 3:上传文件

  • 拖拽/上传文件一支持批量上传

Step 4:文档切块

  • 自动切块300/500字

Step 5:向量化预处理

  • 分段预处理

Step 6:查看结果

  • 预览文本处理的效果

创建知识库

在这里插入图片描述>- 火山知识库:企业开发>- 扣子知识库:个人>>这里就直接用简单的扣子知识库好了![[attachments/Pasted image 20260112154044.png]]
上传文件

![[attachments/Pasted image 20260112154108.png]]

![[attachments/Pasted image 20260112154126.png]]

如果本地上传的pdf没有任何的图片,纯文本,就可以选择快速解析

![[attachments/Pasted image 20260112154220.png]]

![[attachments/Pasted image 20260112154332.png]]

自动分段,将后面的内容融为一体了,不合适,所以使用下面一种

![[attachments/Pasted image 20260112154430.png]]

分段重叠度越大,关联度就越大

![[attachments/Pasted image 20260112154447.png]]

但是这种将文本切的太细了

![[attachments/Pasted image 20260112154507.png]]

但是其实我最后还是用的层级的方式切分的

最后创建就可以了

2. 应用知识库
  • Coze创建智能体

Step2:构建提示词

  • 明确角色一说明功能一规范回复格式

Step 3:选择知识库

  • 编排模块一知识库一点击”添加知识库”

Step 4:结果验证

  • 调试一输入问题一验证结果

![[attachments/Pasted image 20260112155806.png]]

![[attachments/Pasted image 20260112155929.png]]

像上面一样创建一个智能体


![[attachments/Pasted image 20260112160420.png]]

![[attachments/Pasted image 20260112160551.png]]

关键提示:一个bot可以关联多个知识库,设置优先级可以控制检索顺序

总结一下实现流程:

  1. 上传文件
  2. 文档切分
  3. 文档向量化
  4. 存储知识库
  5. 问题检索知识库
  6. 获取相关上下文
  7. 问题和上下文融合
  8. 送入LLM
  9. 得到预测结果
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/262084.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月12日 下午10:55
下一篇 2026年3月12日 下午10:55


相关推荐

关注全栈程序员社区公众号