【Datawhale组队学习202602】Hello-Agents task02 智能体发展史

【Datawhale组队学习202602】Hello-Agents task02 智能体发展史

  • task00 环境配置+前言
  • task01 初识智能体
  • task02 智能体发展史
  • task03 大语言模型基础
  • task04 智能体经典范式构建
  • task05 基于低代码平台的智能体搭建
  • task06 框架应用开发实战


  • Datawhale教程地址 – Hello Agents

只有深刻理解现代智能体为何呈现出如今的形态,以及其核心设计思想的由来,才能更好的理解现代智能体。

在这里插入图片描述

  • 演进方向:每一个新范式的出现,都是为了解决上一代范式的核心“痛点”或根本局限。而新的解决方案在带来能力飞跃的同时,也引入了新的、在当时难以克服的“局限”,而这又为下一代范式的诞生埋下了伏笔。

人工智能领域的早期探索,深受数理逻辑和计算机科学基本原理的影响。

  • 符号主义(Symbolicism),也被称为“逻辑AI”或“传统AI”。
  • 核心思想:智能行为的核心是基于一套明确规则对符号进行操作。
  • 因此,一个智能体可以被视为一个物理符号系统:它通过内部的符号来表示外部世界,并通过逻辑推理来规划行动。这个时代的智能体,其“智慧”完全来源于设计者 Agent 智能体 预先编码的知识库和推理规则

符号主义时代的理论根据,是1976年由艾伦·纽厄尔(Allen Newell)和赫伯特·西蒙(Herbert A. Simon)共同提出的物理符号系统假说(PhysicalSymbol SystemHypothesis, PSSH)。

  • 物理符号系统,指的是一个能够在物理世界中存在的系统,它由一组可被区分的符号和一系列对这些符号进行操作的过程组成。
  • 一句话理解 : 智能 = 对符号的表示 + 对符号的操作
  • 而计算机就是这样一个“物理”存在的系统:它用内存中的比特()表示符号,用 CPU 执行指令来操作它们。这正是 所说的“物理符号系统”。
  • 该假说包含两个核心论断:
论断含义通俗理解充分性只要有符号+操作规则,就能产生智能“会算术+会逻辑 = 能推理”必要性任何智能系统,本质上都在操作符号“哪怕人脑,也是在‘脑内符号’上做运算”
  • 指导了早期 AI 方向,提供了一个可实现的路径,也是为认知科学奠定了基础。

在物理符号系统假说的直接影响下,专家系统(Expert System)成为符号主义时代最重要、最成功的应用成果。

  • 核心思想:把专家的“经验”写成计算机能执行的“IF-THEN规则”,再用一个通用引擎去自动推理。
  • 这正是物理符号系统假说的工程实践:知识 = 符号化的规则,智能 = 对规则的匹配与推理。

2.2.1 三大核心

  • 典型专家系统的三大核心部分构成:
    • 知识库
    • 推理机
    • 用户界面
  • 知识库只管“存规则”,推理机只管“用规则”。修改知识(增删规则)无需重写推理程序——这是软件工程中“关注点分离”的早期典范。
  • 假设要构建一个“校园选课推荐专家系统”:
组件作用系统示例知识库存放领域知识(规则)IF 专业=计算机 AND 年级=大二 THEN 推荐课程=[数据结构, 操作系统]

IF GPA>3.5 AND 对AI感兴趣 THEN 推荐课程=[机器学习导论]推理机通用推理引擎,匹配规则用户输入“我是计算机专业大二学生”,推理机自动匹配第一条规则,输出推荐课程用户界面人机交互入口网页表单:“请选择你的专业、年级、兴趣……”

2.2.2 两种推理方式

  • 推理机有两种推理方式:
  1. 正向链(Forward Chaining):从已知事实出发,不断匹配规则的IF部分,触发THEN部分的结论,并将新结论加入事实库,直到最终推导出目标或无新规则可匹配。这是一种“数据驱动”的推理方式。
  2. 反向链(Backward Chaining):从一个假设的目标(比如“病人是否患有肺炎”)出发,寻找能够推导出该目标的规则,然后将该规则的IF部分作为新的子目标,如此递归下去,直到所有子目标都能被已知事实所证明。这是一种“目标驱动”的推理方式。
推理方式思路例子
正向链(Forward Chaining)从已知事实出发,一步步推新结论 →
“数据驱动”事实:,

→ 匹配规则1:
→ 新事实:
→ 匹配规则2:
→ 输出建议 反向链(Backward Chaining)从目标倒推,找证据支持 → “目标驱动”目标:
→ 查规则:
→ 新子目标:
→ 询问用户 → 收集证据 → 验证目标






  • 从上面可以看出:
    • 正向链 = “我有什么 → 能推出什么”(适合监控、诊断)
    • 反向链 = “我想知道什么 → 需要什么证据”(适合问答、故障排查)
  • 历史上应用专家系统的明星,但是到了80年代末都未能逃离AI寒冬。
系统领域意义
DENDRAL (1965)化学结构分析第一个实用专家系统,用质谱数据推断分子结构
MYCIN (1970s)医疗诊断(细菌感染)包含约600条规则,诊断准确率媲美专家;首次引入“不确定性推理”(置信度)
XCON (1980s)计算机配置为DEC公司每年节省4000万美元,引爆“AI商业应用”热潮

如果说专家系统展示了符号AI在专业领域的 “深度”,那么由特里·威诺格拉德(Terry Winograd)于1968-1970年开发的 项目[3],则在 “广度” 上实现了革命性的突破。

  • 如果将 与大语言模型做个对比
维度SHRDLU(1970)大语言模型(当代)
环境封闭积木世界(规则完全已知)开放文本世界(无固定规则)
知识来源人工编写规则+世界模型从海量文本中统计学习
行动能力能操控虚拟机械臂(具身)暂无物理行动能力(纯语言)
泛化能力零泛化(离开积木世界即失效)强泛化(可聊医学、编程、诗歌)
“理解”本质符号与物理对象严格对应统计关联,暂无真实世界基座
  • 是AI史上的一座灯塔:它证明了将语言、推理、行动集成于统一系统是可能的,为智能体研究指明了方向;同时也是一面镜子:它的脆弱性揭示了脱离真实世界体验的符号操作,难以通向真正的理解。
  1. 常识鸿沟,符号系统难以表示“水是湿的”“玻璃易碎”这类默认常识,需要海量人工编码
  2. 感知缺失,它擅长逻辑推理,但难以处理图像、语音等原始感官信息(“符号接地问题”)
  3. 灵活性不足,人类能模糊推理、类比迁移,而符号系统依赖精确规则,容错性差

  • 核心思想:智能从来不是一个机器、一个大脑、一个天才的事,而是来自无数无数普通的协作。
  • 马文·明斯基说:人类智能没有魔法,它的力量源于 多样性(diversity) 而非 统一性(uniformity)。就像蚁群没有“蚁王”指挥,却能建造复杂巢穴——智能是“涌现 emergence”出来的,不是“设计”出来的。
传统符号AI(失败路径)心智社会(明斯基路径)一个中央推理引擎 + 海量规则无数简单“智能体” + 局部交互自上而下(Top-down)自下而上(Bottom-up)追求“完美逻辑”接纳“不完美协作”像金字塔:顶端决定一切像蚁群:整体行为从局部互动中涌现

如果智能无法被完全设计,那么它是否可以被学习出来?

  • 作为对符号主义局限性的直接回应,联结主义(Connectionism) 在20世纪80年代重新兴起。
  • 联结主义是一种自下而上的方法,其灵感来源于对生物大脑神经网络结构的模仿[8]。它的核心思想可以概括为以下几点:

  1. 物理符号系统假说是符号主义时代的理论基石。请分析:
    • 该假说的”充分性论断”和”必要性论断”分别是什么含义?
    • 结合本章内容,说明符号主义智能体在实践中遇到的哪些问题对该假说的”充分性”提出了挑战?
    • 大语言模型驱动的智能体是否符合物理符号系统假说?
  • 充分性论断说明了
  • 遇到问题有知识瓶颈,常识性知识无法显式规则,图像、声音等无法学习,不够灵活自主,存储和计算需求量爆炸。
  • 符合又不符合,最不符合的就是大模型内部深度神经网络的黑盒机制,那是无法用符号及操作来解释的。
  1. 专家系统MYCIN[2]在医疗诊断领域取得了显著成功,但最终并未大规模应用于临床实践。请思考:
    • 提示:可以从技术、伦理、法律、用户接受度等多个角度分析
    • 除了本章提到的”知识获取瓶颈”和”脆弱性”,还有哪些因素可能阻碍了专家系统在医疗等高风险领域的应用?
    • 如果让现在的你设计一个医疗诊断智能体,你会如何设计系统来克服MYCIN的局限?
    • 在哪些垂直领域中,基于规则的专家系统至今仍然是比深度学习更好的选择?请举例说明。

在2.2节中,我们实现了一个简化版的ELIZA聊天机器人。请在此基础上进行扩展实践:

提示:这是一道动手实践题,建议实际编写代码


版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:Ai探索者,转载请注明出处:https://javaforall.net/237424.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月16日 上午11:35
下一篇 2026年3月16日 上午11:35


相关推荐

关注全栈程序员社区公众号