会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
AfroNicky
博客园
首页
新随笔
联系
订阅
管理
2025年6月10日
LangChain基础补全-Runnable
摘要: LangChain有两个重要的概念:LangChain表达式(LCEL)、组件。我们使用组件,构建整个RAG应用中各种点单的操作,然后使用LCEL将这些组件进行连接,按照一定顺序运行,最终实现我们的目的。相关概念可在这里进一步理解。 Runnable LCEL通过简洁的形式调用各类组件,实现方式是使
阅读全文
posted @ 2025-06-10 19:08 AfroNicky
阅读(98)
评论(0)
推荐(0)
2025年6月7日
05-基于SQL查询数据的RAG应用
摘要: 摘要 之前的RAG应用都是从向量库等存储组件中获取相关内容,并生成回答。现在需要实现,从结构化数据库中获取数据,生成相应的回答,两者具有本质的区别。 SQL-RAG实现的大致流程如下: 将用户问题query转换为特定语言的SQL,该步骤一般由大模型完成; 执行生成的SQL查询语句 模型根据查询结果和
阅读全文
posted @ 2025-06-07 14:28 AfroNicky
阅读(204)
评论(0)
推荐(0)
2025年6月4日
04-不使用LangChain的链实现历史消息的RAG应用
摘要: 摘要 在上文中,学习了使用内置链、LCEL、Agent的方式构建带有历史消息记录的RAG应用。除了基于Agent的构建方式外,其他两种构建方式大体流程类似。基本都是先构建Prompt模板,然后使用LCEL或内置链的形式,将大模型、Prompt等组装起来,无论是LCEL或内置链,都是基于LangCha
阅读全文
posted @ 2025-06-04 18:21 AfroNicky
阅读(34)
评论(0)
推荐(0)
2025年6月3日
深度学习-03~09-深度神经网络后续文章
摘要: 03-卷积神经网络 04-循环神经网络 05-门控循环单元(GRU) 06-长短时记忆网络(LSTM) 07-注意力机制 08-常见的注意力机制 09-Transformer
阅读全文
posted @ 2025-06-03 22:13 AfroNicky
阅读(13)
评论(0)
推荐(0)
基于LangChain的RAG应用开发-03-添加历史会话消息RAG应用
摘要: 摘要 在简单的RAG应用中,该RAG应用并不具备联系历史消息的能力,因此,本文将在上文的基础上实现带有历史消息的RAG应用,所用组件以上文一致。带有历史消息的RAG与上文中构建的RAG存在不同。 在上文中,在获取到用户query后,检索器根据用户的query获取到上下文context,并将query
阅读全文
posted @ 2025-06-03 22:02 AfroNicky
阅读(537)
评论(0)
推荐(0)
2025年5月30日
初探大模型-4-RAG和LangChain框架
摘要: RAG RAG:检索增强生成( Retrieval-Augmented Generation),从庞大知识库中检索到的相关信息,并以此为基础,指导大型语言模型生成更为精准的答案。 要解决的问题: 大模型幻觉 时效性查 专业能力欠缺 面对复杂问题推理能力有限 长文本处理能力较弱 RAG工作流程 文本处
阅读全文
posted @ 2025-05-30 17:41 AfroNicky
阅读(94)
评论(0)
推荐(0)
初探大模型-3-Python调用Ollama私有化部署的LLM
摘要: 使用Ollama完成LLM私有化部署后,除了命令行方式进行问答,还需要能够通过代码调用接口的方式进行。目前主要有以下几种方式:requests调用方式、openai调用方式、ollama调用方式、 requests调用 代码示例: # -*- coding: utf-8 -*- import jso
阅读全文
posted @ 2025-05-30 17:41 AfroNicky
阅读(135)
评论(0)
推荐(0)
初探大模型-2-Ollama安装以及使用Ollama部署LLM
摘要: 此Blog仅作为日常学习工作中记录使用,Blog中有不足之处欢迎指出 本次Blog为Linux版本的安装、部署 一、何为Ollama Ollama是一个开源的 LLM(大型语言模型)本地部署服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够
阅读全文
posted @ 2025-05-30 17:40 AfroNicky
阅读(358)
评论(0)
推荐(0)
初探大模型-1-Dify部署
摘要: 此Blog仅作为日常学习工作中记录使用,Blog中有不足之处欢迎指出 何为Dify Dify是一个开源的大语言模型(LLM)应用开发平台,旨在简化和加速生成式AI应用的创建和部署。它结合了后端即服务(Backend as Service, BaaS)和LLMOps的理念,为开发者提供了一个用户友
阅读全文
posted @ 2025-05-30 17:39 AfroNicky
阅读(110)
评论(0)
推荐(0)
基于LangChain的RAG开发-02-简单的RAG应用
摘要: 摘要 RAG分为:检索、增强、生成。涉及到大模型、向量库、词嵌入模型。本文采用deepseek-chat模型作为大模型,以智谱AI的Embedding-3模型为词嵌入模型,采用Chroma向量库,记忆LangChain框架实现简单的RAG应用。 组件初始化 配置载入 代码如下: import os
阅读全文
posted @ 2025-05-30 17:35 AfroNicky
阅读(74)
评论(0)
推荐(0)
下一页
公告