导航

04 2025 档案

摘要:安装的前提条件 CPU >= 4 核 RAM >= 16 GB Disk >= 50 GB Docker >= 24.0.0 & Docker Compose >= v2.26.1 最后一个检查版本号的方式如下: % docker --version Docker version 28.0.4, b 阅读全文

posted @ 2025-04-24 19:13 蝈蝈俊 阅读(454) 评论(0) 推荐(0)

摘要:在RAG(Retrieval-Augmented Generation,检索增强生成)框架中,检索机制是其核心部分,用于从知识库中提取与用户查询最相关的文档或段落。 根据技术原理的不同,检索方法主要分为稀疏检索和密集检索两种: 一、稀疏检索(Sparse Retrieval) 稀疏检索是一种基于关键 阅读全文

posted @ 2025-04-21 18:28 蝈蝈俊 阅读(320) 评论(0) 推荐(1)

摘要:前面分析了LLM有了超长上下文,还需要RAG么?,结论是:RAG 在精准性、实时性和成本上仍有绝对优势。如果你需要精准答案、实时数据、低幻觉,RAG 仍是必选项。 哪在目前目前常见LLM的上下文普遍支持64K–128K,部分达到百万级背景下,RAG的拆分块大小是否需要增大呢? 先说结论: RAG的拆 阅读全文

posted @ 2025-04-09 13:40 蝈蝈俊 阅读(297) 评论(0) 推荐(0)

摘要:一般情况下模型中 token 和字数的换算比例大致如下: 1 个英文字符 ≈ 0.3 个 token,1 个token大约为 4 个英文字符或 0.75 个英文文本单词。 1 个中文字符 ≈ 0.6 个 token。 为了让token长度有所感知,下面是一些知名图书和剧本的情况: 《哈利波特与魔法石 阅读全文

posted @ 2025-04-08 19:17 蝈蝈俊 阅读(1762) 评论(0) 推荐(0)

摘要:昨天,我们还在欢呼:“LLAMA-4 支持 1M-10M 的超长上下文!以后一本书塞进去,直接问细节,岂不是无敌?” 今天,Fiction.LiveBench 的评测结果狠狠打脸 Llama-4 在 1K token 上下文时,召回率(近似回答正确率)就已经掉到 60% 以下, 而 Llama-4- 阅读全文

posted @ 2025-04-07 14:02 蝈蝈俊 阅读(149) 评论(0) 推荐(0)

摘要:draw.io(https://www.drawio.com/)在连接线的样式里选择“Flow Animation”可以让连接线有动画效果: 按照上图设置后,就会得到下面效果: https://www.drawio.com/doc/faq/connector-animate 展开属性以查看更多“Fl 阅读全文

posted @ 2025-04-05 19:55 蝈蝈俊 阅读(885) 评论(0) 推荐(0)

摘要:文本嵌入模型是将文本数据转化为机器可理解的数值向量的关键技术,这些模型能够捕捉文本的语义信息,使得计算机可以有效地进行文本相似度计算、信息检索、文本分类和聚类等任务。 MTEB 排行榜 问题:从哪里看有哪些嵌入模型,综合排行榜? Hugging Face 上提供了包含250+个嵌入模型的排行榜 MT 阅读全文

posted @ 2025-04-03 14:42 蝈蝈俊 阅读(887) 评论(0) 推荐(0)