Model/IO ChatPromptTemplate 用法


用法

将Tuple 或者其他格式的 messages转化为ChatPromptTemplate , 作为调用大模型的输入(以LCEL 的方式)

例子

dataset_str ="xxxxx"
message_history = [
        SystemMessage(content=f"数据集data:{dataset_str},数据集以字符串形式呈现"),
        HumanMessage(content="请用孙悟空算法处理这个数据集")
    ]

chat_template = ChatPromptTemplate.from_messages(message_history)

chain = final_prompt | llm
chain.invoke( ) 

方便对messages的占位符做替换

from langchain_core.prompts import ChatPromptTemplate
from ali_llm import create_llm

chat_template = ChatPromptTemplate.from_messages(
    [
        ("system", "你是一个有帮助的AI机器人,你的名字是{name}。"),
        ("human", "{user_input}"),
    ]
)


messages = chat_template.format_messages(name="小明", user_input="你叫什么名字?")
def create_llm() -> ChatOpenAI:
    """创建并返回配置好的大模型实例"""
    return ChatOpenAI(
        api_key=os.getenv("DASHSCOPE_API_KEY") or "your_api_key_here",
        base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
        model="qwen2.5-math-7b-instruct"
    )
llm = create_llm()
response = llm.invoke(messages)
print(response.content)

参考资料

posted @ 2025-03-26 16:06  向着朝阳  阅读(166)  评论(0)    收藏  举报