【LangChain Chains及Memory 03】

一、Chains

1、Chains的基本使用

1.1、chains的基本概念

Chain:链,用于将多个组件(提示词模版、LLM模型、记忆、工具等)链接起来,形成可复用的工作流,完成复杂的工作

Chain的核心思想是通过组合不同的模块化单元,实现比单一组件更强大的功能。比如:

  • 将LLM与Prompt Template结合
  • 将LLM与输出解析器结合
  • 将LLM与外部数据结合,例如用于问答
  • 将LLM与长期记忆结合,例如用于聊天历史记录
  • 通过将第一个LLM的输出作为第二个LLM的输入,将多个LLM按顺序结合在一起

1.2、LCEL及其基本构成

使用LCEL可以构造出结构最简单的Chain

LangChain表达式语音是一种声明式方式,可以轻松地将多个组件链接成AI工作流。它通过Python原生操作符(如:管道符 |)将组件链接成可执行流程,显著简化了AI应用的开发

LCEL的基本构成:提示词Prompt +  模型Model + 输出解释器OutputParser

# 在这个链条中,用户输入被传递给提示模板,然后提示模板的输出被传递给模型,然后模型的输出被传 递给输出解析器。
chain = prompt | model | output_parser
chain.invoke({"input":"What's your name?"})
  • Prompt:是一个BasePromptTemplate,这意味着它接受了一个模版变量的字典并生成一个PromptValue 。PromptValue可以传递给LLM(它以字符串作为输入)或ChatModel(它以消息序列作为输入)
  • Model:将PromptValue传递给model。如果我们的model是一个ChatModel,这意味着它将输出一个BaseMessage
  • OutputParser:将model的输出传递给outputParser,它是一个BaseOutputParser,意味着它可以接受字符串或BaseMessage作为输入
  • chain:我们可以使用 | 运算符轻松创建这个chain 。| 运算符在LangChain中用于 将两个元素组合在一起
  • invoke:所有LCEL对象都实现了Runable协议,保证一致的调用方式(invoke / batch / stream)

1.3、Runnable

Runnable是LangChain定义的一个抽象接口(Protocol),它强制要求所有LCEL组件实现一组标准方法:

class Runnable(Protocol):
  def invoke(self, input: Any) -> Any: ... # 单输入单输出
  def batch(self, inputs: List[Any]) -> List[Any]: ... # 批量处理
  def stream(self, input: Any) -> Iterator[Any]: ... # 流式输出
  # 还有其他方法如 ainvoke(异步)等...

目的是每个组件调用方式统一!(无论组件【提示词/模型/工具】多么的复杂,调用方式完全相同)

举例:使用LCEL将不同的组件组合成一个单一链条【这里就用到了管道符 | 】

from langchain_openai import ChatOpenAI
from langchain_core.prompts import PromptTemplate
import os
import dotenv
from langchain_core.output_parsers import StrOutputParser

dotenv.load_dotenv()
base_url = os.getenv("OPENAI_BASE_URLS")
api_key = os.getenv("OPENAI_API_KEY1")

chat = ChatOpenAI(
    model="gpt-4o-mini",
    base_url=base_url,
    api_key=api_key,
)

template = PromptTemplate.from_template(
   template='将一段{name}小品中经典的台词'
)

parser = StrOutputParser()

chain = template|chat|parser
res = chain.invoke({"name":"赵本山和宋丹丹"})
print(res)

注意:使用chain调用时,template|chat|parser这三个组件之间的先后顺序是不能变的,因为每个组件都是需要上一个组件的输出作为输入进行处理

2、基于LCEL构建的Chains的类型

下面是一些常用的函数

  • create_sql_query_chain
  • create_stuff_documents_chain
  • create_openai_fn_runnable
  • create_structured_output_runnable
  • load_query_constructor_runnable
  • create_history_aware_retriever
  • create_retrieval_chain

2.1、create_sql_query_chain

sql查询链,是创建生成sql查询的链,用于将自然语言转换成数据库的sql语句

from langchain.chains.sql_database.query import create_sql_query_chain
from langchain_community.utilities import SQLDatabase

# 链接mysql数据库
from urllib.parse import quote_plus

db_user = 'root'
db_password = '123456'
db_host = 'localhost'
db_port = 3307
db_name = 'test'

# mysql+pymysql://<username>:<password>@<host>:<port>/<database>
# 如果密码含特殊字符(@ : / ? 等),请用 quote_plus
uri = (
    f"mysql+pymysql://{quote_plus(db_user)}:{quote_plus(db_password)}@{db_host}:{db_port}/{db_name}"
    "?charset=utf8mb4"
)

# 建议加上 pool_pre_ping,网络/空闲连接更稳定
db = SQLDatabase.from_uri(
    uri,
    engine_args={"pool_pre_ping": True, "pool_recycle": 3600},
)

# 快速连通性测试(能返回 1 就说明驱动+连接基本 OK)
try:
    print(db.run("SELECT 1"))
except Exception as e:
    print("DB connection test failed:", repr(e))

dotenv.load_dotenv()
base_url = os.getenv("OPENAI_BASE_URLS")
api_key = os.getenv("OPENAI_API_KEY1")

chat = ChatOpenAI(
    model="gpt-4o-mini",
    base_url=base_url,
    api_key=api_key,
)

# 调用 create_sql_query_chain 创建链条
chain = create_sql_query_chain(chat, db)
res = chain.invoke({"question": "往employees表插入5条数据"})
print(res)

 2.2、create_stuff_documents_chain

create_stuff_documents_chain用于将多个文档内容合并成当个长文本的链式工具,并一次性传递给LLM处理(而不是分批次处理)

适合场景

  • 保持上下文完整,适合需要全局理解所有文档内容的任务(如:总结、回答)
  • 适合处理少量/中等长度文档的场景
from langchain.chains.combine_documents import create_stuff_documents_chain
from langchain_core.documents import Document
from langchain_openai import ChatOpenAI
from langchain_core.prompts import PromptTemplate
import os
import dotenv

# 创建大模型对象
dotenv.load_dotenv()
base_url = os.getenv("OPENAI_BASE_URLS")
api_key = os.getenv("OPENAI_API_KEY1")

chat = ChatOpenAI(
    model="gpt-4o-mini",
    base_url=base_url,
    api_key=api_key,
)

# 定义提示词模板
prompt = PromptTemplate.from_template("""
如下文档{docs}中说,香蕉是什么颜色的?
""")

# 创建链条
chain = create_stuff_documents_chain(chat, prompt,document_variable_name="docs")
# 定义输入文档
docs = [
    Document(page_content="苹果,学名Malus pumila Mill.,别称西洋苹果、柰,属于蔷薇科苹果属的植物。苹果是全球最广泛种植和销售的水果之一,具有悠久的栽培历史和广泛的分布范围。苹果的原始种群主要起源于中亚的天山山脉附近,尤其是现代哈萨克斯坦的阿拉木图地区,提供了所有现代苹果品种的基因库。苹果通过早期的贸易路线,如丝绸之路,从中亚向外扩散到全球各地"),
    Document(page_content="香蕉是白色的水果,主要产自热带地区。"),
    Document(page_content="蓝莓是蓝色的浆果,含有抗氧化物质。"),
]

# 执行链条
res = chain.invoke({"docs": docs})
print(res)

二、Memory

1、member的设计理念

图片

  1.  输入问题:({"request":...})
  2. 读取历史信息:从Member中READ历史消息({“past_message”:[...]})
  3. 构建提示词prompt:读取到的历史消息和当前的问题会被合并,构建一个新的prompt
  4. 模型处理:构建好的提示会被传递给语言模型进行处理。语言模型根据提示生成一个输出
  5. 解析输出:输出解析器通过正则表达式regex("Answer: (.*)")来解析,返回一个回答({"answer":...})给用户
  6. 得到回复并写入Member:新生成的回答会与当前的问题一起写入memory,更新对话历史。memory回存储最新的对话内容,为后续的对话提供上下文支持

2、基础member模块的使用

2.1、Member模块的设计思路

如何设计member模块:

  • 层次1(最直接的方式):保留一个聊天消息列表
  • 层次2(简单的新思路):只返回最近交互的k条消息
  • 层次3(稍微复杂一点):返回过去k条消息的简洁摘要
  • 层次4(更复杂):从存储的消息中提取实体,并且仅返回有关当前运行中引用实体的信息

LangChain的设计:

针对上述情况,LangChain构建了一些可以直接使用Memory工具,用于存储聊天消息的一些列集成

图片

 2.2、基础:ChatMessageHistory

ChatMessageHistory是一个用于存储和管理对话消息的基础类,它直接操作消息对象(如:HumanMessage,AIMessage等),是其他记忆组件的底层存储工具 ===>本质是是一个存储器,把消息对象存储到内存中
在API文档中,ChatMessageHistory还有一个别名类:InMemoryChatMessageHistory;导包时,需使用:
from langchain.memory import ChatMessageHistory

特点:

  • 纯粹是消息对象“存储器”,与记忆策略(如缓冲、窗口、摘要等)无关
  • 不涉及消息的格式化(如转成文本字符串)
from langchain_openai import ChatOpenAI
import os
import dotenv
from langchain.memory import ChatMessageHistory

# 创建大模型对象
dotenv.load_dotenv()
base_url = os.getenv("OPENAI_BASE_URLS")
api_key = os.getenv("OPENAI_API_KEY1")

chat = ChatOpenAI(
    model="gpt-4o-mini",
    base_url=base_url,
    api_key=api_key,
)

# 1、实例化ChatMessageHistory对象
history=ChatMessageHistory()
# 2、添加userMessage和AIMessage
history.add_user_message("你好!")
history.add_ai_message("你好!有什么我可以帮助你的吗?")
history.add_user_message("你能介绍一下自己吗?")
print(type(history))

res = chat.invoke(history.messages)
print(res.content)

 2.3、ConversationBufferMemory

针对层次1(保留一个聊天消息列表)-->是一个基础的对话记忆组件,专门按原始顺序存储完整的暴漏出来对话历史,而上面的ChatMessageHistory其实是没有对话历史过程的直接把最终的问题显示出来了

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

posted @ 2026-02-02 11:04  尘封~~  阅读(10)  评论(0)    收藏  举报