随笔分类 -  大模型

如何让大语言模型输出JSON格式?
摘要:作者:HowardZhangdqs链接:https://www.zhihu.com/question/656512469/answer/3515553778来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 回答结果是format好的,看起来格式有问题是因为网页把输出当M 阅读全文

posted @ 2025-03-11 17:28 ExplorerMan 阅读(289) 评论(0) 推荐(0)

RAG系列07:当RAG遇上PDF表格,如何构建索引并使用大模型进行QA
摘要:有效解析和理解非结构化文档中的表格时,设计 RAG 方案仍然是一大挑战。 以图片格式存在的表格情况下,这更困难,如扫描文件中的表格。这些挑战至少包含以下几个方面: 扫描文档或图像文档的复杂性,如多样化的结构、包含非文本元素以及手写和打印内容的结合,为自动准确提取表格信息带来了挑战。不准确的解析可能会 阅读全文

posted @ 2025-03-11 16:26 ExplorerMan 阅读(410) 评论(0) 推荐(0)

探索检索增强生成(RAG)技术的无限可能:Vector+KG RAG、Self-RAG、多向量检索器多模态RAG集成
摘要:探索检索增强生成(RAG)技术的无限可能:Vector+KG RAG、Self-RAG、多向量检索器多模态RAG集成 由于 RAG 的整体思路是首先将文本切分成不同的组块,然后存储到向量数据库中。在实际使用时,将计算用户的问题和文本块的相似度,并召回 top k 的组块,然后将 top k 的组块和 阅读全文

posted @ 2025-03-11 16:08 ExplorerMan 阅读(221) 评论(0) 推荐(0)

基于llava-v1.5-7b大模型的图片理解实战
摘要:多模态模型:llava-v1.5-7b,主要用于图片理解,本文的使用场景为获取图片标题和图片内容描述。 1、查看服务器配置 nvidia-smi CUDA版本= 12.2,8张24g RTX 3090显卡。 2、环境配置 2.1、克隆此存储库并导航到 LLaVA 文件夹 git clone http 阅读全文

posted @ 2025-03-11 16:03 ExplorerMan 阅读(276) 评论(0) 推荐(0)

稠密向量+稀疏向量+全文搜索+张量重排=最佳检索RAG?
摘要:RAG中的混合检索如下图: 为什么要混合搜索(multi-way recall)? 越来越多的人认为,仅仅依靠向量搜索,通常是密集向量,可能并不总是产生令人满意的结果。当用户的特定查询关键字与存储的数据不精确匹配时,这种限制就会变得明显。这是因为向量本身不能表示精确的语义信息:向量可以表示一个词、一 阅读全文

posted @ 2025-03-10 16:07 ExplorerMan 阅读(274) 评论(0) 推荐(0)

BM25 和向量检索的区别
摘要:BM25和向量检索是两种不同的信息检索方法,它们在原理、效率、语义理解能力等方面存在显著区别,适用于不同的应用场景。以下是两者的详细对比: 方面BM25向量检索 原理 基于词频(TF)和逆文档频率(IDF)的统计方法,通过计算查询词与文档的相关性得分。 使用深度学习技术将文本转换为高维向量,通过向量 阅读全文

posted @ 2025-03-10 16:03 ExplorerMan 阅读(197) 评论(0) 推荐(0)

RAG 再添新利器!智源开源最强检索排序模型 BGE Re-Ranker v2.0
摘要:BGE(BAAI General Embedding)是智源研究院打造的通用语义向量模型。自2023年8月发布以来,智源团队陆续发布了中英文模型BGE v1.0、v1.5以及多语言模型 BGE-M3,截至目前,BGE 系列模型全球下载量超过 1500万,位居国内开源AI模型首位。BGE-M3模型一度 阅读全文

posted @ 2025-03-10 11:43 ExplorerMan 阅读(1280) 评论(0) 推荐(0)

稠密向量检索、稀疏向量检索、BM25检索三者对比
摘要:在当今的信息检索领域,随着人工智能和自然语言处理技术的发展,稠密向量检索和稀疏向量检索成为了两种主要的研究方向。稠密向量检索依托于高维空间中的向量表示,能够捕捉文档的深层语义信息,而稀疏向量检索则侧重于关键词的匹配,依赖于文档中词条的存在与否。此外,BM25算法作为一种经典的信息检索模型,以其高效处 阅读全文

posted @ 2025-03-10 11:41 ExplorerMan 阅读(954) 评论(0) 推荐(0)

一文读懂「RLHF」:基于人类反馈的强化学习
摘要:RLHF(Reinforcement Learning fromHuman Feedback,人类反馈强化学习) 引言 在人工智能领域,尤其是自然语言处理(NLP)技术迅猛发展的今天,如何让机器更好地理解和满足人类的需求成为了一个关键问题。传统的训练方法依赖于大规模的语料库和基于规则的损失函数,但在 阅读全文

posted @ 2025-03-06 16:08 ExplorerMan 阅读(1029) 评论(0) 推荐(0)

LMdeploy 执行效率高于VLLM探究
摘要:VLLM和LMdeploy 各有优劣 VLLM功能多,开发者多,代码比较容易懂也比较容易修改, 能适配不同的平台 LMdeploy执行效率高,开发者少,文档几乎没有,只支持NVidia 公司实际上线,肯定要博采众长,既要有LMdeploy的执行效率,也要参考VLLM的各种功能实现。 LMdelpoy 阅读全文

posted @ 2025-03-04 14:35 ExplorerMan 阅读(636) 评论(0) 推荐(0)

LMDeploy量化部署LLM&VLM
摘要:LMDeploy简介LMDeploy 由 MMDeploy 和 MMRazor 团队联合开发,是涵盖了 LLM 任务的全套轻量化、部署和服务解决方案,提供以下核心功能: 高效的推理:LMDeploy 开发了 Persistent Batch(即 Continuous Batch),Blocked K 阅读全文

posted @ 2025-03-04 14:33 ExplorerMan 阅读(552) 评论(0) 推荐(0)

SFT、DPO、RLHF对比
摘要:DPO(Direct Preference Optimization,直接偏好优化)和SFT(Supervised Fine-Tuning,有监督微调)是两种用于优化大语言模型(LLMs)的方法,它们在目标、训练流程和适用场景上存在显著区别。以下是两者的详细对比: 1. 概念与目标 SFT(有监督微 阅读全文

posted @ 2025-03-01 00:42 ExplorerMan 阅读(1087) 评论(0) 推荐(0)

RAG模型上下文丢失问题解决方案对比
摘要:RAG模型上下文丢失问题解决方案对比传统的RAG(检索增强生成)系统通过将文档拆分为独立的小块,并为每个数据块单独生成嵌入向量来提升模型的检索能力。然而,这种方法容易丢失上下文信息,导致模型在处理长文本时理解力下降。为了解决这一问题,Anthropic提出了“Contextual Retrieval 阅读全文

posted @ 2025-03-01 00:42 ExplorerMan 阅读(193) 评论(0) 推荐(0)

使用spacy做分词、实体识别、标注的示例
摘要:下载数据: aws s3 cp s3://applied-nlp-book/data/ data --recursive --no-sign-requestaws s3 cp s3://applied-nlp-book/models/ag_dataset/ models/ag_dataset --r 阅读全文

posted @ 2025-03-01 00:29 ExplorerMan 阅读(70) 评论(0) 推荐(0)

大模型:RAG 开发四大痛点及解决方案
摘要:开发者们在使用 RAG(检索增强生成模型)时经常会遇到一个问题——上下文缺失。因为单个数据块缺乏足够的背景,导致模型无法准确回答问题,甚至出现幻觉!先举几个例子让大家感受一下:- 数据块常常用代词来描述内容(比如:它、它们…),在检索时可能导致错误。- 许多问题的答案分散在多个数据块中,单个数据块无 阅读全文

posted @ 2025-03-01 00:13 ExplorerMan 阅读(371) 评论(0) 推荐(0)

ragflow功能简介
摘要:RAGFlow 是一款开源的检索增强生成(RAG)引擎,结合了数据检索与生成式模型,旨在提升生成式 AI 系统的效率和性能。以下是其主要功能和特点: 1. 深度文档理解 RAGFlow 能够处理多种复杂格式的非结构化数据,如 PDF、Word 文档、PPT、Excel 表格、图片、扫描件、结构化数据 阅读全文

posted @ 2025-02-27 17:20 ExplorerMan 阅读(2488) 评论(0) 推荐(0)

ollama与vllm的区别
摘要:‌Ollama和vLLM在多个方面存在显著差异,主要包括应用场景、性能、硬件要求、安装难度和用户友好性等‌‌12。 应用场景 ‌Ollama‌:适合个人开发者、小型项目或需要快速部署的场景。它是一个轻量级且易于使用的框架,旨在简化大型语言模型的本地部署和运行。Ollama特别适合资源有限的设备和个人 阅读全文

posted @ 2025-02-27 17:12 ExplorerMan 阅读(4054) 评论(0) 推荐(1)

LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发
摘要:LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发1. Ollama 部署的本地模型(🔺)Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。,这是 Ollama 的官网地址:ollama.co 阅读全文

posted @ 2025-02-27 17:10 ExplorerMan 阅读(641) 评论(0) 推荐(0)

RAG实战:本地部署ragflow+ollama(linux)
摘要:1.部署ragflow1.1安装配置docker因为ragflow需要诸如elasticsearch、mysql、redis等一系列三方依赖,所以用docker是最简便的方法。 docker安装可参考Linux安装Docker完整教程,安装后修改docker配置如下: vim /etc/docker 阅读全文

posted @ 2025-02-27 17:05 ExplorerMan 阅读(5296) 评论(0) 推荐(0)

RagFlow本地部署使用
摘要:文章目录前言一、RAGFlow的安装和部署1.安装2.注册登录二、添加模型1.配置 Ollama 连接大模型2.配置Xinference连接大模型三、知识库使用1.创建知识库2.上传文件解析四、聊天前言开源RAGFlow引擎:打造无幻觉、高精度的文档理解与生成体验 RAGflow,这个新兴的开源RA 阅读全文

posted @ 2025-02-27 17:03 ExplorerMan 阅读(4237) 评论(0) 推荐(0)

导航