摘要: 一次偶然刷咸鱼时候,刷到了一个老东家的玩意,一个心电采集盒(DE15),忽然来了兴趣。 卖家不包好坏,后盖壳体有高温变形,也没有配件,估计就是一些事故后报废品。看了下价格也不贵,就拿下了,心想做个摆件,观摩观摩设计。(在另外一家公司做过一段时间心电研发,兴趣使然) 专业医疗设备不便宜,好像完整的采样 阅读全文
posted @ 2026-04-20 20:41 猿妙不可言 阅读(6) 评论(0) 推荐(0)
摘要: 看到ollama最新日志中rocm升级到7.2.1上了,遂考虑升级到最新试试。 首先去官网找到MI50 32G的驱动下载界面,下载对应系统的驱动 安装驱动 sudo dpkg -i amdgpu-install_7.2.1.70201-1_all.deb sudo amdgpu-install ./ 阅读全文
posted @ 2026-04-15 18:46 猿妙不可言 阅读(97) 评论(4) 推荐(0)
摘要: 最近google更新了新的开源模型,这边更新Ollama后,试着拉取测试了下,26B的模型运行很顺利,没有问题。 但是运行31B模型时,启动总是报错,开启后台日志后(journalctl -u ollama -f),找到如下提示: 4月 08 19:34:33 zt ollama[938812]: 阅读全文
posted @ 2026-04-08 20:17 猿妙不可言 阅读(56) 评论(0) 推荐(0)
摘要: 之前在上一期主要是通过屏蔽对GGML_OP_SOLVE_TRI的支持来解决MI50运行Qwen3.5下SOLVE_TRI报错,今天GitHub上发现更好的解决方法,来自llama.cpp的相关提交。 作者直接修改了solve_tri.cu的实现,将MAX_K_FAST也支持到64,简单来说就是让下面 阅读全文
posted @ 2026-03-04 17:12 猿妙不可言 阅读(219) 评论(0) 推荐(0)
摘要: 近期qwen又新出了Qwen3.5模型,包括27B、35B的模型。这边升级ollama做了下测试,会出现如下报错: (查看方法 1.终端执行命令:journalctl -u ollama -f 2.进行一次Qwen3.5 27B或35B模型启动,查看最新的日志) 为了确定问题,这边在LM studi 阅读全文
posted @ 2026-02-28 19:23 猿妙不可言 阅读(1222) 评论(3) 推荐(0)
摘要: 最近更新了下llama.cpp的版本,使用了b7710,也尝试在rocm7.1.1下编译,编译也能通过(参考之前的文章) 但是之前启动VL模型时一直没有图片选项,发现是没有加载多模态部分guff,同时尝试时也遇到一些坑。 这边一直在linux下使用LM studio,除了模型尝鲜测试外(比ollam 阅读全文
posted @ 2026-01-15 12:07 猿妙不可言 阅读(729) 评论(0) 推荐(0)
摘要: 今天去amd官网闲逛,发现MI50的驱动居然已经更新到了7.1.1,心情激动了下,立马下载安装的试试,结果是一波三折。 下载文件: amdgpu-install_7.1.1.70101-1_all.deb 安装 sudo apt install ./amdgpu-install_7.1.1.7010 阅读全文
posted @ 2026-01-06 20:44 猿妙不可言 阅读(862) 评论(0) 推荐(0)
摘要: 之前一直知道量化会对模型有影响,但是没法具体感知到差别,最近使用qwen3-vl:30b-a3b模型时,就实实在在的感知到了。 上图: (原图未打码) 阅读全文
posted @ 2025-11-27 19:49 猿妙不可言 阅读(42) 评论(0) 推荐(0)
摘要: Open WebUI时回答完后经常会遇到新提问回答响应延迟、或输出变慢的问题,通过显卡风扇明显可以感知后台依然占用计算资源,在运行。 该问题在LM Studio上不明显,但是使用Open WebUI就会明显感觉到,主要问题在于Open WebUI在回答完成后,会后台生成标题、追问、标签等信息,这些生 阅读全文
posted @ 2025-11-27 19:38 猿妙不可言 阅读(332) 评论(0) 推荐(0)
摘要: 近期花了点时间,通过编译解决了原来停留ollama0.12.3版本不支持qwen3vl模型的问题(MI50最新只能支持到这个Ollama版本,最新0.13.0的Vulkan可用,但是是体验选项不能后台服务运行),同时也带入了较新的ROCm7的支持。解决思路提供个大家参考,部分细节需要根据思路去做源码 阅读全文
posted @ 2025-11-21 12:13 猿妙不可言 阅读(1679) 评论(10) 推荐(0)