摘要: 阅读全文
posted @ 2025-11-06 19:51 Annaprincess 阅读(3) 评论(0) 推荐(0)
摘要: 基于ollama和streamlit的聊天机器人 利用deepseek蒸馏模型 model='deepseek-r1:1.5b'这个可以在client.chat里头自己定义会自动下载 import streamlit as st import ollama client=ollama.Client( 阅读全文
posted @ 2025-11-06 19:35 Annaprincess 阅读(2) 评论(0) 推荐(0)
摘要: 不适用模型的简易ai交互页面 一.形式 import streamlit as st st.title("测试标题") st.divider() prompt=st.chat_input("请输入你的问题") if prompt:#如果问题不为空才输出答案 st.chat_message("user 阅读全文
posted @ 2025-11-06 19:03 Annaprincess 阅读(4) 评论(0) 推荐(0)
摘要: streamlit基础API 一.总结 二.演示 import streamlit as st import time st.title("本文标题:streamlit基础API案例")#标题的设置 # #等待框(思考) with st.spinner("思考中"): time.sleep(2) s 阅读全文
posted @ 2025-11-06 10:21 Annaprincess 阅读(7) 评论(0) 推荐(0)
摘要: 打开远程解释器下的streamlit的hello页面 前提是已经在远程解释器安装好streamlit 1.激活远程解释器(我在本地pycharm使用的那个远程解释器) 确定远程解释器位置 激活(在远程ubuntu激活) 2.输入streamlit hello 输出结果:显示hello页面地址http 阅读全文
posted @ 2025-11-06 09:33 Annaprincess 阅读(4) 评论(0) 推荐(0)
摘要: 用本地的pycharm调用ollama 用的是2025.2.4专业版pycharm,本项目主要用的库有ollama和streamlit 一.远程连接 1.先在本地创建一个项目:如f盘 2.创建远程解释器(WSL)右下角 找个远程位置防止远程解释器 3.检查是否连接远程 本地pycharm输入 结果: 阅读全文
posted @ 2025-11-06 09:20 Annaprincess 阅读(9) 评论(0) 推荐(0)
摘要: 下载后开箱即用 1.设置 2.选择模型代理 ollama,点ollama 3. 获取模型(导入ollama的才可以使用!) 4.退出设置后选择模型 5.开始对话 阅读全文
posted @ 2025-11-03 12:02 Annaprincess 阅读(6) 评论(0) 推荐(0)
摘要: windows系统Ollama私有化模型部署 一.安装Ollama (1)在官网下载https://ollama.com/download (2) 步骤 2:检查 Windows 系统环境变量(关键!) 如果安装后仍报错,需手动配置环境变量: 右键点击此电脑 → 选择属性 → 点击高级系统设置 → 阅读全文
posted @ 2025-11-03 00:16 Annaprincess 阅读(74) 评论(0) 推荐(0)
摘要: 聊天机器人项目架构 阅读全文
posted @ 2025-11-02 20:19 Annaprincess 阅读(4) 评论(0) 推荐(0)
摘要: Linux命令 一.命令的结构 -l以列表形式显示 -r递归 (将文件夹套文件夹也复制) 二.ls命令 家目录(home):用/home/用户名 ls默认查看当前工作目录 三.cd命令改换目录 想换到指定位置用cd 完整地址 如果想进入内部一层文件夹用cd 想进入的内部文件夹名eg:要进入home内 阅读全文
posted @ 2025-11-02 11:38 Annaprincess 阅读(4) 评论(0) 推荐(0)