会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
秋·风
博客园
::
首页
::
新随笔
::
联系
::
订阅
::
管理
::
公告
上一页
1
···
4
5
6
7
8
9
10
11
12
···
35
下一页
2025年3月4日
Lazarus在windows远程调试linux程序
摘要: 这篇参考了禁卫军的博客lazarus远程调试linux程序存在的主要问题是自带的gdb.exe默认只有win64和win32两个版本,缺少aarch64/loongarch64/x86_64等linux平台的版本(以fpcupdeluxe安装的lazarus为例)一、下载各平台对应的gdb.exe并
阅读全文
posted @ 2025-03-04 14:17 秋·风
阅读(375)
评论(2)
推荐(0)
2025年3月1日
【原创】lazarus调用deepseek持续对话的API
摘要: deepseek(只要接口兼容OpenAI接口的都可以使用这个方法)只需在messages一并提交上次返回的历史记录就可以: procedure TLargeModelFrm.LoadLargeModelAPI(question,urls,APIkey,modelName:string); var
阅读全文
posted @ 2025-03-01 14:45 秋·风
阅读(370)
评论(0)
推荐(0)
2025年2月27日
使用fpcupdeluxe安装lazarus及配置交叉编译环境(给小白看的,高手免进)
摘要: 简单介绍怎样使用fpcupdeluxe安装lazarus及配置交叉编译环境。首先下载fpcupdeluxefpcupdeluxe下载网址:https://github.com/LongDirtyAnimAlf/fpcupdeluxe/releases/ 下载适合的安装包,在这里我以windows x
阅读全文
posted @ 2025-02-27 10:56 秋·风
阅读(752)
评论(1)
推荐(1)
2025年2月25日
ollama windows版绿化的方法(2025-03-05 博文最后有绿色版下载)
摘要: ollama安装位置默认为C:\Users\用户名\AppData\Local\Ollama,模型文件存放:C:\Users\用户名\AppData\Local\Ollama\.ollama,c盘一般不会很大,但AI的模型库文件比较大,很容易就将C盘撑爆,因此最好将模型文件移到其他盘。操作步骤:1、
阅读全文
posted @ 2025-02-25 10:55 秋·风
阅读(674)
评论(0)
推荐(0)
2025年2月24日
【原创】用Lazarus写的DeepSeek API Chat接口流式接收(2025-02-26添加了demo源码)
摘要: 使用了opensslsockets, fphttpclient, fpjson, jsonparse,cef4delphi,synedit,fpc_Markdown等单元,实现DeepSeek(只要兼容OpenAI接口就可以)或ollama本地部署的API Chat接口的流式接收的程序。程序运行时的
阅读全文
posted @ 2025-02-24 21:08 秋·风
阅读(483)
评论(2)
推荐(0)
2025年2月21日
lazarus实现markdown格式转为Html
摘要: 这2天在学习在本地部署大模型,大模型输出的答案大部分是markdown格式,怎样才能将markdown格式转为HTML然后在浏览器显示呢? 经过搜索,发现用fpc_markdown+Synedit+THtmlViewer或CEF4DELPHI(添加TSynEdit/TSynExporterHTML/
阅读全文
posted @ 2025-02-21 18:56 秋·风
阅读(359)
评论(2)
推荐(0)
2025年2月20日
手动安装ollama(linux)及ollama常用命令
摘要: 安装 要安装 Ollama,请运行以下命令: curl -fsSL https://ollama.com/install.sh | sh 手动安装 注意 如果要从以前的版本升级,则应使用 first 删除旧库。sudo rm -rf /usr/lib/ollama 下载并解压缩包: curl -L
阅读全文
posted @ 2025-02-20 14:42 秋·风
阅读(4523)
评论(0)
推荐(0)
Cherry-Studio使用ollama已部署的大模型
摘要: 为方便使用ollama已部署的大模型,建议使用Cherry-Studio这个开源软件。在https://cherry-ai.com/官网下载并完成安装Cherry-Studio。1、点左下“设置”-->选择"ollama"-->填写API地址-->点右下角的“管理”添加已部署的大模型 下图列出的4个
阅读全文
posted @ 2025-02-20 10:24 秋·风
阅读(3159)
评论(0)
推荐(1)
2025年2月19日
【原创】用ollama部署大模型后API的调用demo
摘要: 用ollama部署大模型后API的调用demo。注意:ollama默认只能用127.0.0.1这个IP访问。解除这个限制的步骤:1、打开/etc/systemd/system/ollama.service在[Service]添加: Environment="OLLAMA_HOST=0.0.0.0:1
阅读全文
posted @ 2025-02-19 22:08 秋·风
阅读(740)
评论(0)
推荐(0)
2025年2月17日
本地部署qwen2.5-coder
摘要: 昨天测试本地部署deepseek-r1:8b模型,今天安装qwen2.5-coder模型,看哪个更适合代码编写。一、安装qwen2.5-code: 1.如没安装过ollama,请下载并安装ollama安装脚本,如果已安装,请直接跳到第3步。如果没安装curl,请先安装(sudo apt instal
阅读全文
posted @ 2025-02-17 20:29 秋·风
阅读(1422)
评论(0)
推荐(0)
上一页
1
···
4
5
6
7
8
9
10
11
12
···
35
下一页