摘要: 排查是因为analysis-smartcn.zip 被公司 自动加密了,导致elasticsearch无法解析这个插件 解决办法:下载smartcn, 直接浏览器访问地址,根据当前es版本号替换地址中analysis-smartcn-{x.x.x}.zip https://artifacts.ela 阅读全文
posted @ 2025-11-03 10:41 vello 阅读(4) 评论(0) 推荐(0)
摘要: url_list = ["http://www.icoat.cc/news/list_18_3.html", "http://www.icoat.cc/news/list_18.html", "http://www.icoat.cc/news/list_18_2.html", ] for ls in 阅读全文
posted @ 2025-10-29 10:07 vello 阅读(6) 评论(0) 推荐(0)
摘要: Ollama API 交互 Ollama 提供了基于 HTTP 的 API,允许开发者通过编程方式与模型进行交互。 本文将详细介绍 Ollama API 的详细使用方法,包括请求格式、响应格式以及示例代码。 1. 启动 Ollama 服务 在使用 API 之前,需要确保 Ollama 服务正在运行。 阅读全文
posted @ 2025-10-28 15:10 vello 阅读(12) 评论(0) 推荐(0)
摘要: Ollama 基本概念 Ollama 是一个本地化的、支持多种自然语言处理(NLP)任务的机器学习框架,专注于模型加载、推理和生成任务。 通过 Ollama,用户能够方便地与本地部署的大型预训练模型进行交互。 1. 模型(Model) 在 Ollama 中,模型是核心组成部分。它们是经过预训练的机器 阅读全文
posted @ 2025-10-28 15:04 vello 阅读(15) 评论(0) 推荐(0)
摘要: Ollama 运行模型使用 ollama run 命令。 例如我们要运行 Llama 3.2 并与该模型对话可以使用以下命令: ollama run llama3.2 执行以上命令如果没有该模型会去下载 llama3.2 模型: 等待下载完成后,我们在终端中,输入以下命令来加载 LLama3.2 模 阅读全文
posted @ 2025-10-28 14:56 vello 阅读(18) 评论(0) 推荐(0)
摘要: Ollama 安装 Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。 Ollama 对硬件要求不高,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。 CPU:多核处理器(推荐 4 核或以上)。 GPU:如果你计划运行大型模 阅读全文
posted @ 2025-10-28 14:34 vello 阅读(41) 评论(0) 推荐(0)
摘要: SQLServer 数字+Null结果会变为 Null,使用ISNULL(Null, 0)函数保底 ISNULL(field_name, 0) 当field_name为Null时,自动保底为0 输出 阅读全文
posted @ 2025-10-28 10:36 vello 阅读(2) 评论(0) 推荐(0)
摘要: 这时候,我们找到需要添加的解释器的位置,我这里是以自己添加的为例(位置是:D:\AdvancedSoftware\python3.13.2\install),点击进入这个目录,然后在目录栏输入cmd,并回车进入命令终端 打开cmd窗口 输入命令: 01:python -m pip list 查看pi 阅读全文
posted @ 2025-10-26 14:41 vello 阅读(16) 评论(0) 推荐(0)
摘要: 一、打开系统配置 二、打开 时间和语言 配置 三、打开 语言 配置 四、配置语言首选项 五、配置 键盘语言 首选项 六、删除 微软输入法 阅读全文
posted @ 2025-10-25 16:00 vello 阅读(27) 评论(0) 推荐(0)
摘要: My Sql 数据类型 SQL Server 数据类型 Yes/No bit Smallint(字节型) tinyint ** Integer(长整型) /int ** int Real(单精度浮点型) real Float(双精度浮点型) float Currency money smallmon 阅读全文
posted @ 2025-10-25 14:57 vello 阅读(9) 评论(0) 推荐(0)