用本地的pycharm调用ollama

用本地的pycharm调用ollama

用的是2025.2.4专业版pycharm,本项目主要用的库有ollama和streamlit

一.远程连接

1.先在本地创建一个项目:如f盘

image

2.创建远程解释器(WSL)右下角

image

image

image

找个远程位置防止远程解释器

image

3.检查是否连接远程

本地pycharm输入

image

结果:连接成功

image


二.安装解释器下的库

对远程解释器安装ollama、streamlit-->因为本项目是用远程的解释器跑所以要在远程解释器上安装库

image

image

image


三.ollama库常用指令

(1)先获取Client代理对象,再操作

import ollama
client=ollama.Client(host='http://localhost:11434')#这行代码的作用是创建一个与本地运行的 Ollama 服务 进行交互的客户端对象。,端口号默认11434
print(client.list())#展示可用模型
print(client.show('deepseek-r1:1.5b'))#指定模型的详细信息
print(client.ps())#当前运行模型

结果:

image


四.简易的基于deepseek1.5的聊天机器人

完整代码:

import ollama
client=ollama.Client(host='http://localhost:11434')#这行代码的作用是创建一个与本地运行的 Ollama 服务 进行交互的客户端对象。,端口号默认11434
#chat进行对话
while True:#循环提问
    prompt=input("请输入问题")
    response = client.chat(
        model='deepseek-r1:1.5b',
        messages=[{"role": "user", "content": prompt}]
    )#response接收问题的答案
    print(response['message']['content'])#打印答案,格式固定['message']['content']

 核心代码分析:

response = client.chat(
        model='deepseek-r1:1.5b',#选定模型
        messages=[{"role": "user", "content": prompt}]#messages用的是列表嵌套字典格式,首先指定角色role,然后指定问题content
    )#response接收问题的答案,调用chat方法

输出问题答案

print(response['message']['content'])#打印答案,格式固定['message']['content']

posted @ 2025-11-06 09:20  Annaprincess  阅读(8)  评论(0)    收藏  举报