- task00 环境配置+前言
- task01 初识智能体
- task02 智能体发展史
- task03 大语言模型基础
- task04 智能体经典范式构建
- task05 基于低代码平台的智能体搭建
- task06 框架应用开发实战
- Datawhale教程地址 – Hello Agents
只有深刻理解现代智能体为何呈现出如今的形态,以及其核心设计思想的由来,才能更好的理解现代智能体。

- 演进方向:每一个新范式的出现,都是为了解决上一代范式的核心“痛点”或根本局限。而新的解决方案在带来能力飞跃的同时,也引入了新的、在当时难以克服的“局限”,而这又为下一代范式的诞生埋下了伏笔。
人工智能领域的早期探索,深受数理逻辑和计算机科学基本原理的影响。
- 符号主义(Symbolicism),也被称为“逻辑AI”或“传统AI”。
- 核心思想:智能行为的核心是基于一套明确规则对符号进行操作。
- 因此,一个智能体可以被视为一个物理符号系统:它通过内部的符号来表示外部世界,并通过逻辑推理来规划行动。这个时代的智能体,其“智慧”完全来源于设计者 Agent 智能体 预先编码的知识库和推理规则。
符号主义时代的理论根据,是1976年由艾伦·纽厄尔(Allen Newell)和赫伯特·西蒙(Herbert A. Simon)共同提出的物理符号系统假说(PhysicalSymbol SystemHypothesis, PSSH)。
- 物理符号系统,指的是一个能够在物理世界中存在的系统,它由一组可被区分的符号和一系列对这些符号进行操作的过程组成。
- 一句话理解 : 智能 = 对符号的表示 + 对符号的操作
- 而计算机就是这样一个“物理”存在的系统:它用内存中的比特()表示符号,用 CPU 执行指令来操作它们。这正是 所说的“物理符号系统”。
- 该假说包含两个核心论断:
- 指导了早期 AI 方向,提供了一个可实现的路径,也是为认知科学奠定了基础。
在物理符号系统假说的直接影响下,专家系统(Expert System)成为符号主义时代最重要、最成功的应用成果。
- 核心思想:把专家的“经验”写成计算机能执行的“IF-THEN规则”,再用一个通用引擎去自动推理。
- 这正是物理符号系统假说的工程实践:知识 = 符号化的规则,智能 = 对规则的匹配与推理。
2.2.1 三大核心
- 典型专家系统的三大核心部分构成:
- 知识库
- 推理机
- 用户界面
- 知识库只管“存规则”,推理机只管“用规则”。修改知识(增删规则)无需重写推理程序——这是软件工程中“关注点分离”的早期典范。
- 假设要构建一个“校园选课推荐专家系统”:
IF GPA>3.5 AND 对AI感兴趣 THEN 推荐课程=[机器学习导论]推理机通用推理引擎,匹配规则用户输入“我是计算机专业大二学生”,推理机自动匹配第一条规则,输出推荐课程用户界面人机交互入口网页表单:“请选择你的专业、年级、兴趣……”
2.2.2 两种推理方式
- 推理机有两种推理方式:
- 正向链(Forward Chaining):从已知事实出发,不断匹配规则的IF部分,触发THEN部分的结论,并将新结论加入事实库,直到最终推导出目标或无新规则可匹配。这是一种“数据驱动”的推理方式。
- 反向链(Backward Chaining):从一个假设的目标(比如“病人是否患有肺炎”)出发,寻找能够推导出该目标的规则,然后将该规则的IF部分作为新的子目标,如此递归下去,直到所有子目标都能被已知事实所证明。这是一种“目标驱动”的推理方式。
正向链(Forward Chaining)从已知事实出发,一步步推新结论 →
“数据驱动”事实:,
→ 匹配规则1:
→ 新事实:
→ 匹配规则2:
→ 输出建议 反向链(Backward Chaining)从目标倒推,找证据支持 → “目标驱动”目标:
→ 查规则:
→ 新子目标:
→ 询问用户 → 收集证据 → 验证目标
- 从上面可以看出:
- 正向链 = “我有什么 → 能推出什么”(适合监控、诊断)
- 反向链 = “我想知道什么 → 需要什么证据”(适合问答、故障排查)
- 历史上应用专家系统的明星,但是到了80年代末都未能逃离AI寒冬。
DENDRAL (1965)化学结构分析第一个实用专家系统,用质谱数据推断分子结构
MYCIN (1970s)医疗诊断(细菌感染)包含约600条规则,诊断准确率媲美专家;首次引入“不确定性推理”(置信度)
XCON (1980s)计算机配置为DEC公司每年节省4000万美元,引爆“AI商业应用”热潮
如果说专家系统展示了符号AI在专业领域的 “深度”,那么由特里·威诺格拉德(Terry Winograd)于1968-1970年开发的 项目[3],则在 “广度” 上实现了革命性的突破。
- 如果将 与大语言模型做个对比
环境封闭积木世界(规则完全已知)开放文本世界(无固定规则)
知识来源人工编写规则+世界模型从海量文本中统计学习
行动能力能操控虚拟机械臂(具身)暂无物理行动能力(纯语言)
泛化能力零泛化(离开积木世界即失效)强泛化(可聊医学、编程、诗歌)
“理解”本质符号与物理对象严格对应统计关联,暂无真实世界基座
- 是AI史上的一座灯塔:它证明了将语言、推理、行动集成于统一系统是可能的,为智能体研究指明了方向;同时也是一面镜子:它的脆弱性揭示了脱离真实世界体验的符号操作,难以通向真正的理解。
- 常识鸿沟,符号系统难以表示“水是湿的”“玻璃易碎”这类默认常识,需要海量人工编码
- 感知缺失,它擅长逻辑推理,但难以处理图像、语音等原始感官信息(“符号接地问题”)
- 灵活性不足,人类能模糊推理、类比迁移,而符号系统依赖精确规则,容错性差
- 核心思想:智能从来不是一个机器、一个大脑、一个天才的事,而是来自无数无数普通的协作。
- 马文·明斯基说:人类智能没有魔法,它的力量源于 多样性(diversity) 而非 统一性(uniformity)。就像蚁群没有“蚁王”指挥,却能建造复杂巢穴——智能是“涌现 emergence”出来的,不是“设计”出来的。
如果智能无法被完全设计,那么它是否可以被学习出来?
- 作为对符号主义局限性的直接回应,联结主义(Connectionism) 在20世纪80年代重新兴起。
- 联结主义是一种自下而上的方法,其灵感来源于对生物大脑神经网络结构的模仿[8]。它的核心思想可以概括为以下几点:
- 物理符号系统假说是符号主义时代的理论基石。请分析:
- 该假说的”充分性论断”和”必要性论断”分别是什么含义?
- 结合本章内容,说明符号主义智能体在实践中遇到的哪些问题对该假说的”充分性”提出了挑战?
- 大语言模型驱动的智能体是否符合物理符号系统假说?
- 充分性论断说明了
- 遇到问题有知识瓶颈,常识性知识无法显式规则,图像、声音等无法学习,不够灵活自主,存储和计算需求量爆炸。
- 符合又不符合,最不符合的就是大模型内部深度神经网络的黑盒机制,那是无法用符号及操作来解释的。
- 专家系统MYCIN[2]在医疗诊断领域取得了显著成功,但最终并未大规模应用于临床实践。请思考:
- 提示:可以从技术、伦理、法律、用户接受度等多个角度分析
- 除了本章提到的”知识获取瓶颈”和”脆弱性”,还有哪些因素可能阻碍了专家系统在医疗等高风险领域的应用?
- 如果让现在的你设计一个医疗诊断智能体,你会如何设计系统来克服MYCIN的局限?
- 在哪些垂直领域中,基于规则的专家系统至今仍然是比深度学习更好的选择?请举例说明。
在2.2节中,我们实现了一个简化版的ELIZA聊天机器人。请在此基础上进行扩展实践:
提示:这是一道动手实践题,建议实际编写代码
发布者:Ai探索者,转载请注明出处:https://javaforall.net/237424.html原文链接:https://javaforall.net
