Model/IO ChatPromptTemplate 用法
用法
将Tuple 或者其他格式的 messages转化为ChatPromptTemplate , 作为调用大模型的输入(以LCEL 的方式)
例子
dataset_str ="xxxxx"
message_history = [
SystemMessage(content=f"数据集data:{dataset_str},数据集以字符串形式呈现"),
HumanMessage(content="请用孙悟空算法处理这个数据集")
]
chat_template = ChatPromptTemplate.from_messages(message_history)
chain = final_prompt | llm
chain.invoke( )
方便对messages的占位符做替换
from langchain_core.prompts import ChatPromptTemplate
from ali_llm import create_llm
chat_template = ChatPromptTemplate.from_messages(
[
("system", "你是一个有帮助的AI机器人,你的名字是{name}。"),
("human", "{user_input}"),
]
)
messages = chat_template.format_messages(name="小明", user_input="你叫什么名字?")
def create_llm() -> ChatOpenAI:
"""创建并返回配置好的大模型实例"""
return ChatOpenAI(
api_key=os.getenv("DASHSCOPE_API_KEY") or "your_api_key_here",
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
model="qwen2.5-math-7b-instruct"
)
llm = create_llm()
response = llm.invoke(messages)
print(response.content)

浙公网安备 33010602011771号