Dify 是一款面向开发者的开源大语言模型(LLM)应用开发平台,定位为“生成式 AI 应用创新引擎”。其核心目标是通过低代码/无代码方式,提供从模型集成、工作流编排到应用部署的全流程管理,降低企业级 AI 应用开发门槛
dify 的核心特点
- • 提供拖拽式工作流编排(如 Prompt 设计、Agent 构建),支持非技术人员快速定义 AI 应用逻辑,无需深入底层代码179。
- • 内置 Prompt IDE,可调试提示词、对比模型性能,并集成文本转语音等扩展功能9。
- • 强大的模型兼容性
支持数百种主流模型(如 GPT-4、DeepSeek、Llama3、通义千问),兼容 OpenAI API 协议,可灵活切换云端或本地私有模型1610。 - • 通过 OneAPI 协议动态路由请求,优化模型调用成本610。
- • 企业级 RAG 引擎
支持长文档解析(PDF/PPT 等),结合向量数据库(如 Milvus)和混合检索(关键词+语义),提升知识库问答准确性178。 - • 支持引用溯源和人工干预,减少模型“幻觉
- • 灵活的 Agent 框架
基于 ReAct 策略(推理+行动),可调用 50+ 内置工具(如谷歌搜索、DALL·E),或自定义 API 扩展复杂任务处理能力79。 - • 全链路 LLMOps 支持
提供模型监控、日志分析、A/B 测试等功能gent 智能体;支持 Kubernetes 私有化部署,满足金融、医疗等高合规场景3710。
dify的版本
云版本:
Dify vs Coze:核心优势对比
面向开发者/企业,支持复杂 AI 应用开发
面向普通用户,侧重快速搭建对话机器人
多模型混合调用 + 私有化部署
主要依赖字节系模型(豆包),不支持自定义
长文本处理、RAG 优化、高精度检索
单文件仅支持 6000 Token,需手动分割
全链路私有化部署,数据本地化
依赖云端服务,存在隐私风险
自定义工具/代码节点,复杂工作流编排
模块简化,高级定制受限
企业级应用(客服/BI/合规分析)
C 端场景(抖音/飞书聊天机器人)
场景选型建议
- • 选 Dify:需复杂工作流(如合同分析 + 多模型调度)、数据隐私要求高、长期企业级应用。
- • 选 Coze:快速嵌入字节生态(抖音/飞书)、轻量级对话机器人开发、无代码需求。
部署步骤
,此命令会自动拉取配置好的镜像并启动容器
注意:一开始不要使用docker compose up -d , 因为-d表示后台执行,如果pull镜像网络超时则会立刻中断,国内pull镜像不太稳定,经常中断,后面可以拉完镜像后,再次启动才加上-d参数后台运行
显示运行中的容器:
管理界面和配置
浏览器输入:http://localhost/install
打开配置界面,配置登录邮箱和账号名、密码后,登录后打开主界面:
后续输入http://localhost 打开主界面即可
大模型供应商配置:
打开右上角登录头像,点击“设置”,可以选择大模型供应商:
这里直接选择安装deepseek后,在配置列表设置deepseek 的api key,配置成功之后则可以在工作流节点中使用了
配置本地Ollama的基础URL,ip不能是localhost,需要是本地的局域网ip,例如:http://192.168.3.202:11434,端口默认是11434,这是因为dify是docker启动的,localhost是容器内的地址了,不是本地宿主机的
下面以OA行政小助手为例,搭建一个AI智能体,用于使用自然语文查询公司员工手册、用户信息以及公司部门信息等,支持
创建应用
创建空白应用,应用类型选择“Chatflow”, chatflow 基于工作流编排,适用于定义等复杂流程的多轮对话场景,具有记忆功能
准备工作
创建知识库
导入到知识库的文本,这里将后面要检索的《员工手册》导入到知识库:
文本分段和清洗:
保存处理成功后,就可以在知识库看到新增的内容:
创建知识库查询工作流
工作流编排如下:
然后点击右上角发布-发布为工具,将此工作流发布为工具,在“工具”中就可以看到
这个主要用于后面做为工具绑定到智能体的工具列表中,dify没有官方的检索知识库插件,故这里自己创建一个工作流来查询知识库,同时把这个工作流发布为插件后,就可以在智能体节点绑定成工具使用
安装数据库查询工具
右上角点击插件-安装插件-安装源-Marketplace, 搜索数据库查询,安装“数据库查询”工具
后面作为智能体查询指定的数据库查询工具
安装AGENT策略
这个AGENT策略需要在插件市场进行安装,右上角点击插件-安装插件-安装源-Marketplace, 搜索AGENT策略,安装“Dify Agent策略”
AGENT策略为后面创建智能体提供策略的处理支持
编排流程
编排如下:
这里添加三个节点
开始节点:
AGENT节点:
主要的智能体处理节点:
1、查询知识库
2、SQL查询
这里绑定了前面准备好的两个工具
数据库工具这里可以配置的连接属性:
这里的属性值在dify环境变量已经配置好,直接选择就好
直接回复节点:
回复选择上个节点AGENT的输出结果text
预览
点击预览弹出预览聊天界面,输入聊天消息就可以和编排好的智能体聊天了
工具调用:
比如查询“小明的员工资料”:
智能体会感知用户的查询意图,自动调用数据库查询工具查询小明的员工表和部门表,最终得出结果,这里可以看到这里经过三轮的步骤,round 1查询员工表,round 2 查询部门表,round 3 再由大模型总结输出最终的结果
知识库检索:
比如查询“公司的考勤制度”
智能体会使用知识库查询工具,自动去检索知识库,然后总结出最终的输出
发布运行
可以将智能体聊天界面发布成web站点,方便外部进行访问
“发布更新”后,点击“运行”可以打开web站点:
很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!
在这个版本当中:
第一不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 分享出来: 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)


我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调。

L5阶段:专题集丨特训篇 【录播课】

,有需要的小伙伴可以,免费领取

发布者:Ai探索者,转载请注明出处:https://javaforall.net/245863.html原文链接:https://javaforall.net
