AI开发-python-langchain框架(1-1入门)

今天我们要解锁一个在大语言模型(LLM)应用开发领域超实用的工具 ——Python LangChain 框架

LangChain 到底是什么?其实不用把它想复杂,它就像是一个 “大语言模型应用的积木搭建平台”—— 我们不用从零开始搭建复杂的 LLM 交互逻辑、数据处理流程,只需要借助 LangChain 提供的各种封装好的工具和组件,就能快速把大语言模型的能力落地成实际可用的应用,比如智能问答机器人、文档分析助手、个人知识库等等,这对于想要快速入门 AI 开发、避免陷入底层细节的同学来说,简直是 “福音”。

今天我们不搞复杂的理论堆砌,也不涉及高深的架构设计,核心目标只有一个 ——带着大家快速上手 LangChain,跑通第一个最简单的样例程序,感受 LangChain 的便捷性,完成从 “听说” 到 “实操” 的第一步跨越

注:大模型使用ollama搭建一个7b的deepseek模型学习就够用了。python使用3.10

1、安装依赖:

# pip install openai==1.13.3
# pip install langsmith==0.1.0
# pip install langchain-openai==0.1.6
# pip install langchain-core==0.1.30
# pip install langchain==0.1.10

 2、代码样例

#使用搭建的deepseek调用

from langchain_openai import ChatOpenAI

# 配置 Deepseek 密钥和模型参数
DEEPSEEK_API_KEY = "123"  # 替换为实际的 API Key ,本地模型随便写一个值就可以
llm = ChatOpenAI(
    api_key=DEEPSEEK_API_KEY,
    base_url="http://localhost:11434/v1",  # Deepseek 的 API 基础地址
    model="deepseek-r1:7b",  # Deepseek 对话模型(可选:deepseek-chat-pro 等高级模型)
    temperature=0.7,  # 温度参数(0-1,越低越稳定)
    max_tokens=1024  # 最大生成 tokens
)

# 调用模型
response = llm.invoke("中国的首都是哪里?不需要介绍")
print(response.content)

 输出结果:中国的首都是北京。

到这第一个例子就完成了,是不是挺简单的。

 

posted @ 2026-01-16 10:39  万笑佛  阅读(0)  评论(0)    收藏  举报