摘要: 阅读全文
posted @ 2025-11-06 19:51 Annaprincess 阅读(3) 评论(0) 推荐(0)
摘要: 基于ollama和streamlit的聊天机器人 利用deepseek蒸馏模型 model='deepseek-r1:1.5b'这个可以在client.chat里头自己定义会自动下载 import streamlit as st import ollama client=ollama.Client( 阅读全文
posted @ 2025-11-06 19:35 Annaprincess 阅读(2) 评论(0) 推荐(0)
摘要: 不适用模型的简易ai交互页面 一.形式 import streamlit as st st.title("测试标题") st.divider() prompt=st.chat_input("请输入你的问题") if prompt:#如果问题不为空才输出答案 st.chat_message("user 阅读全文
posted @ 2025-11-06 19:03 Annaprincess 阅读(4) 评论(0) 推荐(0)
摘要: streamlit基础API 一.总结 二.演示 import streamlit as st import time st.title("本文标题:streamlit基础API案例")#标题的设置 # #等待框(思考) with st.spinner("思考中"): time.sleep(2) s 阅读全文
posted @ 2025-11-06 10:21 Annaprincess 阅读(7) 评论(0) 推荐(0)
摘要: 打开远程解释器下的streamlit的hello页面 前提是已经在远程解释器安装好streamlit 1.激活远程解释器(我在本地pycharm使用的那个远程解释器) 确定远程解释器位置 激活(在远程ubuntu激活) 2.输入streamlit hello 输出结果:显示hello页面地址http 阅读全文
posted @ 2025-11-06 09:33 Annaprincess 阅读(4) 评论(0) 推荐(0)
摘要: 用本地的pycharm调用ollama 用的是2025.2.4专业版pycharm,本项目主要用的库有ollama和streamlit 一.远程连接 1.先在本地创建一个项目:如f盘 2.创建远程解释器(WSL)右下角 找个远程位置防止远程解释器 3.检查是否连接远程 本地pycharm输入 结果: 阅读全文
posted @ 2025-11-06 09:20 Annaprincess 阅读(9) 评论(0) 推荐(0)