秋·风

  博客园 :: 首页 :: 新随笔 :: 联系 :: 订阅 :: 管理 ::
上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 35 下一页

2025年3月4日

摘要: 这篇参考了禁卫军的博客lazarus远程调试linux程序存在的主要问题是自带的gdb.exe默认只有win64和win32两个版本,缺少aarch64/loongarch64/x86_64等linux平台的版本(以fpcupdeluxe安装的lazarus为例)一、下载各平台对应的gdb.exe并 阅读全文
posted @ 2025-03-04 14:17 秋·风 阅读(375) 评论(2) 推荐(0)

2025年3月1日

摘要: deepseek(只要接口兼容OpenAI接口的都可以使用这个方法)只需在messages一并提交上次返回的历史记录就可以: procedure TLargeModelFrm.LoadLargeModelAPI(question,urls,APIkey,modelName:string); var 阅读全文
posted @ 2025-03-01 14:45 秋·风 阅读(370) 评论(0) 推荐(0)

2025年2月27日

摘要: 简单介绍怎样使用fpcupdeluxe安装lazarus及配置交叉编译环境。首先下载fpcupdeluxefpcupdeluxe下载网址:https://github.com/LongDirtyAnimAlf/fpcupdeluxe/releases/ 下载适合的安装包,在这里我以windows x 阅读全文
posted @ 2025-02-27 10:56 秋·风 阅读(752) 评论(1) 推荐(1)

2025年2月25日

摘要: ollama安装位置默认为C:\Users\用户名\AppData\Local\Ollama,模型文件存放:C:\Users\用户名\AppData\Local\Ollama\.ollama,c盘一般不会很大,但AI的模型库文件比较大,很容易就将C盘撑爆,因此最好将模型文件移到其他盘。操作步骤:1、 阅读全文
posted @ 2025-02-25 10:55 秋·风 阅读(674) 评论(0) 推荐(0)

2025年2月24日

摘要: 使用了opensslsockets, fphttpclient, fpjson, jsonparse,cef4delphi,synedit,fpc_Markdown等单元,实现DeepSeek(只要兼容OpenAI接口就可以)或ollama本地部署的API Chat接口的流式接收的程序。程序运行时的 阅读全文
posted @ 2025-02-24 21:08 秋·风 阅读(483) 评论(2) 推荐(0)

2025年2月21日

摘要: 这2天在学习在本地部署大模型,大模型输出的答案大部分是markdown格式,怎样才能将markdown格式转为HTML然后在浏览器显示呢? 经过搜索,发现用fpc_markdown+Synedit+THtmlViewer或CEF4DELPHI(添加TSynEdit/TSynExporterHTML/ 阅读全文
posted @ 2025-02-21 18:56 秋·风 阅读(359) 评论(2) 推荐(0)

2025年2月20日

摘要: 安装 要安装 Ollama,请运行以下命令: curl -fsSL https://ollama.com/install.sh | sh 手动安装 注意 如果要从以前的版本升级,则应使用 first 删除旧库。sudo rm -rf /usr/lib/ollama 下载并解压缩包: curl -L 阅读全文
posted @ 2025-02-20 14:42 秋·风 阅读(4523) 评论(0) 推荐(0)

摘要: 为方便使用ollama已部署的大模型,建议使用Cherry-Studio这个开源软件。在https://cherry-ai.com/官网下载并完成安装Cherry-Studio。1、点左下“设置”-->选择"ollama"-->填写API地址-->点右下角的“管理”添加已部署的大模型 下图列出的4个 阅读全文
posted @ 2025-02-20 10:24 秋·风 阅读(3159) 评论(0) 推荐(1)

2025年2月19日

摘要: 用ollama部署大模型后API的调用demo。注意:ollama默认只能用127.0.0.1这个IP访问。解除这个限制的步骤:1、打开/etc/systemd/system/ollama.service在[Service]添加: Environment="OLLAMA_HOST=0.0.0.0:1 阅读全文
posted @ 2025-02-19 22:08 秋·风 阅读(740) 评论(0) 推荐(0)

2025年2月17日

摘要: 昨天测试本地部署deepseek-r1:8b模型,今天安装qwen2.5-coder模型,看哪个更适合代码编写。一、安装qwen2.5-code: 1.如没安装过ollama,请下载并安装ollama安装脚本,如果已安装,请直接跳到第3步。如果没安装curl,请先安装(sudo apt instal 阅读全文
posted @ 2025-02-17 20:29 秋·风 阅读(1422) 评论(0) 推荐(0)

上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 35 下一页