会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
deephub
overfit深度学习
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
57
58
59
60
61
62
63
64
65
···
139
下一页
2024年2月2日
10个Pandas的高级技巧
摘要: Pandas是我们最常用的数据处理Python库之一。尽管您可能已经与它共事多年,但可能还有许多您尚未探索的实用方法。我将向您展示一些可能未曾听说但在数据整理方面非常实用的方法。 我目前日常使用的是pandas 2.2.0,这是本文时可用的最新版本。 https://avoid.overfit.cn
阅读全文
posted @ 2024-02-02 10:49 deephub
阅读(75)
评论(0)
推荐(0)
2024年2月1日
UniMS-RAG:用于个性化对话的统一多源RAG框架
摘要: RAG领域已经取得了相当大的发展,这篇论文的是如何分解RAG过程,加入多文件检索、记忆和个人信息等定制化的元素。 大型语言模型(llm)在自然语言任务中表现出色,但在对话系统中的个性化和上下文方面面临挑战。这个研究提出了一个统一的多源检索-增强生成系统(UniMS-RAG),通过将任务分解为知识来源
阅读全文
posted @ 2024-02-01 09:59 deephub
阅读(96)
评论(0)
推荐(0)
2024年1月31日
Langchain中改进RAG能力的3种常用的扩展查询方法
摘要: 有多种方法可以提高检索增强生成(RAG)的能力,其中一种方法称为查询扩展。我们这里主要介绍在Langchain中常用的3种方法 查询扩展技术涉及对用户的原始查询进行细化,以生成更全面和信息丰富的搜索。使用扩展后的查询将从向量数据库中获取更多相关文档。 1、Step Back Prompting Ta
阅读全文
posted @ 2024-01-31 10:44 deephub
阅读(51)
评论(0)
推荐(0)
2024年1月30日
论文推荐:大语言模型在金融领域的应用调查
摘要: 这篇论文总结了现有LLM在金融领域的应用现状,推荐和金融相关或者有兴趣的朋友都看看 论文分为2大部分: 1、作者概述了使用llm的现有方法 包括使用零样本或少样本的预训练模型,对特定于领域的数据进行微调,还有从头开始训练定制llm,并给出了关键模型的总结与评价。 2、根据给定的用例、数据约束、计算和
阅读全文
posted @ 2024-01-30 09:51 deephub
阅读(47)
评论(0)
推荐(0)
2024年1月29日
使用核模型高斯过程(KMGPs)进行数据建模
摘要: 核模型高斯过程(KMGPs)作为一种复杂的工具可以处理各种数据集的复杂性。他通过核函数来扩展高斯过程的传统概念。本文将深入探讨kmgp的理论基础、实际应用以及它们所面临的挑战。 核模型高斯过程是机器学习和统计学中对传统高斯过程的一种扩展。要理解kmgp,首先掌握高斯过程的基础知识,然后了解核模型是如
阅读全文
posted @ 2024-01-29 10:12 deephub
阅读(37)
评论(0)
推荐(0)
2024年1月28日
2024年1月的论文推荐
摘要: 又到月底了,在月初推荐论文的基础上又整理了10篇推荐阅读的论文 1、MosaicBERT https://mosaicbert.github.io/ 一种用于快速预训练的双向编码器。MosaicBERT是针对快速预训练优化的自定义BERT架构。主要架构修改:FlashAttention, ALiBi
阅读全文
posted @ 2024-01-28 10:42 deephub
阅读(48)
评论(0)
推荐(0)
2024年1月27日
使用Transformer 模型进行时间序列预测的Pytorch代码示例
摘要: 时间序列预测是一个经久不衰的主题,受自然语言处理领域的成功启发,transformer模型也在时间序列预测有了很大的发展。本文可以作为学习使用Transformer 模型的时间序列预测的一个起点。 https://avoid.overfit.cn/post/960767b198ac4d9f988fc
阅读全文
posted @ 2024-01-27 10:51 deephub
阅读(298)
评论(0)
推荐(0)
2024年1月26日
使用mergekit 合并大型语言模型
摘要: 模型合并是近年来兴起的一种新技术。它允许将多个模型合并成一个模型。这样做不仅可以保持质量,还可以获得额外的好处。 假设我们有几个模型:一个擅长解决数学问题,另一个擅长编写代码。在两种模型之间切换是一个很麻烦的问题,但是我们可以将它们组合起来,利用两者的优点。而且这种组合的方法可以不需要GPU来完成。
阅读全文
posted @ 2024-01-26 09:46 deephub
阅读(90)
评论(0)
推荐(0)
2024年1月25日
Mistral AI vs. Meta:顶级开源LLM比较
摘要: 为了提高性能,大型语言模型(llm)通常会通过增加模型大小的方法来实现这个目标,但是模型大小的增加也增加了计算成本和推理延迟,增加了在实际场景中部署和使用llm的障碍。 Mistral AI是一家总部位于巴黎的欧洲公司,一直在研究如何提高模型性能,同时减少为实际用例部署llm所需的计算资源。Mist
阅读全文
posted @ 2024-01-25 10:45 deephub
阅读(61)
评论(0)
推荐(0)
2024年1月24日
通过4个任务比较LangChain和LlamaIndex
摘要: 我们在本地使用大模型的时候,尤其是构建RAG应用的时候,一般会有2个成熟的框架可以使用 LangChain:用开发LLM的通用框架。 LlamaIndex:专门用于构建RAG系统的框架。 选择一个框架是对于项目的后续开发是非常重要的,因为如果后续更换框架是一个非常困难的事情,所以我们这里对这两个框架
阅读全文
posted @ 2024-01-24 10:27 deephub
阅读(215)
评论(0)
推荐(0)
上一页
1
···
57
58
59
60
61
62
63
64
65
···
139
下一页
公告