会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
AfroNicky
博客园
首页
新随笔
联系
订阅
管理
1
2
下一页
2025年6月10日
LangChain基础补全-Runnable
摘要: LangChain有两个重要的概念:LangChain表达式(LCEL)、组件。我们使用组件,构建整个RAG应用中各种点单的操作,然后使用LCEL将这些组件进行连接,按照一定顺序运行,最终实现我们的目的。相关概念可在这里进一步理解。 Runnable LCEL通过简洁的形式调用各类组件,实现方式是使
阅读全文
posted @ 2025-06-10 19:08 AfroNicky
阅读(90)
评论(0)
推荐(0)
2025年6月7日
05-基于SQL查询数据的RAG应用
摘要: 摘要 之前的RAG应用都是从向量库等存储组件中获取相关内容,并生成回答。现在需要实现,从结构化数据库中获取数据,生成相应的回答,两者具有本质的区别。 SQL-RAG实现的大致流程如下: 将用户问题query转换为特定语言的SQL,该步骤一般由大模型完成; 执行生成的SQL查询语句 模型根据查询结果和
阅读全文
posted @ 2025-06-07 14:28 AfroNicky
阅读(180)
评论(0)
推荐(0)
2025年6月4日
04-不使用LangChain的链实现历史消息的RAG应用
摘要: 摘要 在上文中,学习了使用内置链、LCEL、Agent的方式构建带有历史消息记录的RAG应用。除了基于Agent的构建方式外,其他两种构建方式大体流程类似。基本都是先构建Prompt模板,然后使用LCEL或内置链的形式,将大模型、Prompt等组装起来,无论是LCEL或内置链,都是基于LangCha
阅读全文
posted @ 2025-06-04 18:21 AfroNicky
阅读(31)
评论(0)
推荐(0)
2025年6月3日
深度学习-03~09-深度神经网络后续文章
摘要: 03-卷积神经网络 04-循环神经网络 05-门控循环单元(GRU) 06-长短时记忆网络(LSTM) 07-注意力机制 08-常见的注意力机制 09-Transformer
阅读全文
posted @ 2025-06-03 22:13 AfroNicky
阅读(10)
评论(0)
推荐(0)
基于LangChain的RAG应用开发-03-添加历史会话消息RAG应用
摘要: 摘要 在简单的RAG应用中,该RAG应用并不具备联系历史消息的能力,因此,本文将在上文的基础上实现带有历史消息的RAG应用,所用组件以上文一致。带有历史消息的RAG与上文中构建的RAG存在不同。 在上文中,在获取到用户query后,检索器根据用户的query获取到上下文context,并将query
阅读全文
posted @ 2025-06-03 22:02 AfroNicky
阅读(529)
评论(0)
推荐(0)
2025年5月30日
初探大模型-4-RAG和LangChain框架
摘要: RAG RAG:检索增强生成( Retrieval-Augmented Generation),从庞大知识库中检索到的相关信息,并以此为基础,指导大型语言模型生成更为精准的答案。 要解决的问题: 大模型幻觉 时效性查 专业能力欠缺 面对复杂问题推理能力有限 长文本处理能力较弱 RAG工作流程 文本处
阅读全文
posted @ 2025-05-30 17:41 AfroNicky
阅读(91)
评论(0)
推荐(0)
初探大模型-3-Python调用Ollama私有化部署的LLM
摘要: 使用Ollama完成LLM私有化部署后,除了命令行方式进行问答,还需要能够通过代码调用接口的方式进行。目前主要有以下几种方式:requests调用方式、openai调用方式、ollama调用方式、 requests调用 代码示例: # -*- coding: utf-8 -*- import jso
阅读全文
posted @ 2025-05-30 17:41 AfroNicky
阅读(118)
评论(0)
推荐(0)
初探大模型-2-Ollama安装以及使用Ollama部署LLM
摘要: 此Blog仅作为日常学习工作中记录使用,Blog中有不足之处欢迎指出 本次Blog为Linux版本的安装、部署 一、何为Ollama Ollama是一个开源的 LLM(大型语言模型)本地部署服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够
阅读全文
posted @ 2025-05-30 17:40 AfroNicky
阅读(337)
评论(0)
推荐(0)
初探大模型-1-Dify部署
摘要: 此Blog仅作为日常学习工作中记录使用,Blog中有不足之处欢迎指出 何为Dify Dify是一个开源的大语言模型(LLM)应用开发平台,旨在简化和加速生成式AI应用的创建和部署。它结合了后端即服务(Backend as Service, BaaS)和LLMOps的理念,为开发者提供了一个用户友
阅读全文
posted @ 2025-05-30 17:39 AfroNicky
阅读(103)
评论(0)
推荐(0)
基于LangChain的RAG开发-01-简单的LLM应用样例
摘要: 简单LLM应用概述 简单的LLM应用,是以大语言模型为基础,通过添加提示词、输出、知识库等工具或组件,构成完成一系列任务的应用。 模型 通过api_key、base_url等参数,配置并初始化模型参数 from langchain_openai import ChatOpenAI from
阅读全文
posted @ 2025-05-30 17:35 AfroNicky
阅读(32)
评论(0)
推荐(0)
1
2
下一页
公告