今天我们来聊聊,用langchain调用大模型,如何持续实时交互。
昨天我们跑通了第一次调用,输出就像“演示版”,一问一答,但一次性结束。今天,我们来进行连续的对话。
就像我们平时用豆包或者DeepSeek这些AI 豆包 大模型 教程 聊天一样,持续提问,随问随答。
在昨天原来的目录上,我们新建两个文件。老规矩,一个原生版本,一个langchain版本。
原生版本,新建文件02_talk_with_deepseek.py
langchain版本,新建文件02_talk_with_deepseek_langchain.py
我们使用while True来激活一个循环,然后通过input(” 你:”)来进行连续的输入。
通过在循环中持续填入增量的历史消息到message对象后调用大模型,并且打印大模型的回复,来达到持续交互的目的。
Langchain中使用 messages.append(HumanMessage(content=user_input)),用HumanMessage对象来包装用户输入,看起来更加整洁。
当我们的代码复杂后,有更高的可读性。
这是最终代码运行效果,是不是很简单就跑起来了?
对AI应用开发感兴趣的同学,欢迎加微信申请入群交流学习。
想要学习AI应用开发的同学,可以参照我的代码跑起来,举一反三,一天一个脚印的进步,我相信,会足够坚实。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/272195.html原文链接:https://javaforall.net
