15. 别再硬写提示词了!LangChain ChatPromptTemplate核心实战
如果你喜欢看视频学习,就看
prompt_template = ChatPromptTemplate.from_messages([ SystemMessagePromptTemplate.from_template("你是AI开发助手{name},擅长编程开发。"), HumanMessagePromptTemplate.from_template("你能帮我做什么?"), AIMessagePromptTemplate.from_template("我可以帮你写代码、改bug。"), HumanMessagePromptTemplate.from_template("{user_question}") ])
使用这个模板时,写法可以灵活调整。如果只是简单传递消息内容,不需要额外附带参数,用字符串别名的写法会特别简洁,省去不少冗余操作。
prompt_template = ChatPromptTemplate.from_messages([ ("system", "你是AI开发助手{name},擅长编程。"), ("user", "你能帮我做什么?"), ("ai", "我可以帮你写代码、改bug。"), ("user", "{user_question}") ])
但如果追求更高的清晰性和可扩展性,想兼容一些高级功能,那字典写法就比元组简写更合适,后续维护和修改也会更方便。
prompt_template = ChatPromptTemplate.from_messages([ {"role": "system", "content": "你是AI开发助手{name},擅长编程。"}, {"role": "user", "content": "你能帮我做什么?"}, {"role": "ai", "content": "我可以帮你写代码、改bug。"}, {"role": "user", "content": "{user_question}"} ])
这里要重点说一下不同字符串别名的用法,它们对应着不同的消息类,各有明确的用途和使用规则,记清楚这些能避免很多操作失误。
|
字符串别名 |
对应消息类 |
用途 |
使用规则 |
|
system |
SystemMessage |
给AI设定人设、规则和上下文 |
必在开头只能有1个 |
|
user/human |
HumanMessage |
代表用户的输入 |
与“ai”交替,不能连续出现2个 |
|
ai/assistant |
AIMessage |
表示AI的输出约束 |
跟在“user”后,不能连续出现2个 |
了解完这些基础规则,就到了实战环节,其实操作步骤很简单,一步步来就能上手。首先要做的就是导入ChatPromptTemplate类,这是所有后续操作的基础。接着,用from_messages方法创建这个类的实例,这个方法需要接收一个消息列表作为参数,列表里的每条消息都是包含role和content字段的字典,其中content里用大括号包裹的部分,就是我们后续要填充的变量占位符。通过system、user、ai这三种角色的搭配,我们就能轻松定义出完整的对话上下文,甚至可以加入回答范例,让AI更清楚该如何响应。
创建好实例后,调用invoke方法,传入一个包含具体填充值的字典,它就会自动替换掉所有的占位符,生成一个完整的PromptValue提示词对象。最后,把这个PromptValue对象传入已经初始化好的大语言模型的invoke方法,就能完成一次规范的AI交互了。
from langchain_core.prompts import ChatPromptTemplate prompt_template = ChatPromptTemplate.from_messages([ {"role": "system", "content": "你是AI开发助手{name},擅长编程开发和技术问题解答。"}, {"role": "user", "content": "你能帮我做什么?"}, {"role": "ai","content": "我可以帮你写代码、改bug、设计技术方案。"}, {"role": "user", "content": "{user_question}"} ]) prompt_value = prompt_template.invoke( { "name": "神算子", "user_question": "用Python写一个简单的计算器程序" } ) res = llm.invoke(prompt_value, config=config) print(res.content)
除此之外,还有一个实用小技巧可以记一下。如果我们需要预先定义部分变量,不用每次都完整传入所有参数,借助partial方法就能轻松指定,后续使用时只需要补充剩余变量即可。
from langchain_core.prompts import ChatPromptTemplate prompt_template = ChatPromptTemplate.from_messages([ {"role": "system", "content": "你是AI开发助手{name},擅长编程开发和技术问题解答。"}, {"role": "user", "content": "你能帮我做什么?"}, {"role": "ai", "content": "我可以帮你写代码、改bug、设计技术方案。"}, {"role": "user", "content": "{user_question}"} ]) partial_prompt = prompt_template.partial(name="神算子") prompt_value = partial_prompt.invoke( { "user_question": "用Python写一个简单的计算器程序" } ) res = llm.invoke(prompt_value, config=config) print(res.content)
要是想在模板中嵌入消息列表,比如多轮对话的历史消息,就可以使用MessagesPlaceholder,它的字符串别名是placeholder,用起来特别便捷,能很好地适配多轮交互场景。
from langchain_core.prompts import ChatPromptTemplate prompt_template = ChatPromptTemplate.from_messages([ {"role": "system", "content": "你是AI开发助手{name},擅长编程开发和技术问题解答。"}, {"role": "placeholder", "content": "{chat_history}"}, {"role": "user", "content": "你能帮我做什么?"}, {"role": "ai", "content": "我可以帮你写代码、改bug、设计技术方案。"}, {"role": "user", "content": "{user_question}"} ]) partial_prompt = prompt_template.partial(name="神算子") prompt_value = partial_prompt.invoke( { "user_question": "用Python写一个简单的计算器程序", "history": [ {"role": "user", "content": "我想做个编程工具"}, {"role": "ai", "content": "我来帮你实现"} ] } ) res = llm.invoke(prompt_value, config=config) print(res.content)

浙公网安备 33010602011771号