AI开发-python-langchain框架(1-1入门)
今天我们要解锁一个在大语言模型(LLM)应用开发领域超实用的工具 ——Python LangChain 框架。
LangChain 到底是什么?其实不用把它想复杂,它就像是一个 “大语言模型应用的积木搭建平台”—— 我们不用从零开始搭建复杂的 LLM 交互逻辑、数据处理流程,只需要借助 LangChain 提供的各种封装好的工具和组件,就能快速把大语言模型的能力落地成实际可用的应用,比如智能问答机器人、文档分析助手、个人知识库等等,这对于想要快速入门 AI 开发、避免陷入底层细节的同学来说,简直是 “福音”。
今天我们不搞复杂的理论堆砌,也不涉及高深的架构设计,核心目标只有一个 ——带着大家快速上手 LangChain,跑通第一个最简单的样例程序,感受 LangChain 的便捷性,完成从 “听说” 到 “实操” 的第一步跨越。
注:大模型使用ollama搭建一个7b的deepseek模型学习就够用了。python使用3.10
1、安装依赖:
# pip install openai==1.13.3 # pip install langsmith==0.1.0 # pip install langchain-openai==0.1.6 # pip install langchain-core==0.1.30 # pip install langchain==0.1.10
2、代码样例
#使用搭建的deepseek调用
from langchain_openai import ChatOpenAI
# 配置 Deepseek 密钥和模型参数
DEEPSEEK_API_KEY = "123" # 替换为实际的 API Key ,本地模型随便写一个值就可以
llm = ChatOpenAI(
api_key=DEEPSEEK_API_KEY,
base_url="http://localhost:11434/v1", # Deepseek 的 API 基础地址
model="deepseek-r1:7b", # Deepseek 对话模型(可选:deepseek-chat-pro 等高级模型)
temperature=0.7, # 温度参数(0-1,越低越稳定)
max_tokens=1024 # 最大生成 tokens
)
# 调用模型
response = llm.invoke("中国的首都是哪里?不需要介绍")
print(response.content)
输出结果:中国的首都是北京。
到这第一个例子就完成了,是不是挺简单的。
浙公网安备 33010602011771号