会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
第七子007
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
9
···
22
下一页
2024年7月10日
LLM大模型: 常用的数据清洗方法总结
摘要: LLM的三大要素: 算力:算力的本质是拼财力,普通人是无力改变的; 算法/模型结构:目前最流行的还是transformer架构, 各种LLM都是基于transformer改细节,暂时没有用新的框架替代transformer。至于后续manba会不会替代transformer架构,有待观察! 数据:这
阅读全文
posted @ 2024-07-10 23:13 第七子007
阅读(7386)
评论(0)
推荐(0)
2024年7月7日
LLM大模型: RAG两大核心利器 — embedding和reranker模型微调fine-tune
摘要: 要想RAG好,embedding和reranker必须给力!目前市面上流行的embedding和reranker使用的都是通用预料训练,并未针对安全这个细分领域定制,所以有必要使用安全领域的预料微调一下!目前所有的预料中,获取成本比较低、并且不需要专门投入人力标注的有两种: 网上各种安全论坛的博客、
阅读全文
posted @ 2024-07-07 23:24 第七子007
阅读(4087)
评论(0)
推荐(0)
2024年7月5日
LLM大模型: RAG的上下文语义聚类retrieval — GraphaRAG
摘要: 截至目前,RAG最大的缺陷就是无法回答总结性的问题了。上篇文章(https://www.cnblogs.com/theseventhson/p/18281227)介绍了RAPTOR方法(利用GMM高斯混合模型对chunk聚类,然后再用LLM对每个cluster概括总结摘要)提取cluster的语义,
阅读全文
posted @ 2024-07-05 17:19 第七子007
阅读(2789)
评论(4)
推荐(1)
2024年7月4日
LLM大模型: RAG的上下文语义聚类retrieval — RAPTOR
摘要: 1、RAG有很多优点,但是缺点也很明显,其中一个硬伤就是:只会“断章取义”!如果文本有明确的答案,现有的retrieve方式大概率能找到,但是如果文本没有明确的答案了?比如android逆向和windows逆向,哪个更有钱途?很多资料会介绍android逆向、windows逆向的原理和技术细节,但是
阅读全文
posted @ 2024-07-04 14:50 第七子007
阅读(1346)
评论(0)
推荐(1)
2024年7月3日
LLM大模型: RAG的最优chunk方法 — 利用本地离线LLM的embedding实现Semantic Chunking
摘要: 1、RAG整个流程的核心节点如下: 第一个重要的节点就是chunk。chunk最核心的目的就是把相同语义的token聚集在一起,不同语义的token互相分开,利于后续的retrieve和rerank。举个例子:今天天气很好,我和小明在一起打篮球。隔壁老王在家里看电视。小明的妈妈在家里做晚饭,晚上我去
阅读全文
posted @ 2024-07-03 09:26 第七子007
阅读(10422)
评论(0)
推荐(0)
2024年6月29日
LLM大模型: RAG两大核心利器: M3E-embedding和bge-rerank
摘要: RAG的效果好不好,最核心依赖两点:文本embedding语义提取的好不好,rerank的排序效果好不好(包含正确答案的文本是不是排在前面)!各自使用的环节如下: 1、文本embedding的提取:理论上讲,任何transformer架构的encoder部分都可用于生成token的embedding
阅读全文
posted @ 2024-06-29 23:05 第七子007
阅读(14309)
评论(2)
推荐(1)
2024年6月26日
LLM大模型: 基于langchain+AutoGPT+向量数据库的Agent实现
摘要: 钢铁侠都看过吧,男猪脚 tony 只需要语音说话给出指令,AI助手会完成所有的指令,期间完全不需要人干预了,全程自动化,看着是不是很科幻?很过瘾?现阶段,市面上所有的大模型核心功能还是问答,能准确回答用户的提问已经很不错了,那么问题来了: 怎么根据用户的指令去干具体的活了? 怎么判断任务已经完成了?
阅读全文
posted @ 2024-06-26 23:38 第七子007
阅读(1021)
评论(0)
推荐(0)
2024年6月23日
LLM大模型: RAG的langchain+向量数据库实现和评估方案
摘要: LLM大模型的核心功能之一就是聊天对话(信息检索),RAG的使用必不可少!大致的流程是:用户的query先转成embedding,去向量数据库查询最接近的top K回答;然后这query + top K的回答 + 其他context一起进入LLM,让LLM整合上述所有的信息后给出最终的回复! 为了简
阅读全文
posted @ 2024-06-23 12:19 第七子007
阅读(5643)
评论(3)
推荐(0)
2024年6月19日
LLM大模型: FlagEmbedding-BiEncoderModel源码解析和embedding模型评估及选择
摘要: NLP常见的任务之一是高效检索:在大规模语料库中快速检索与查询相关的段落或文档;用户输入query,要在语料库中找到语义最接近、最匹配的回答!此外,还有文本分类、情感分析等下游任务需要先把文本的embedding求出来,这些功能都能通过"双塔结构"(Bi-Encoder)实现!核心思路很简单:用两个
阅读全文
posted @ 2024-06-19 18:19 第七子007
阅读(1044)
评论(0)
推荐(0)
2024年6月17日
LLM大模型: RLHF-DPO原理和源码解析
摘要: 1、前段时间国外某大学反向抄袭国内某团队的大模型闹得沸沸扬扬,国内被抄袭的大模型是MiniCPM,详细资料:https://github.com/OpenBMB/MiniCPM ; 能被国外同行抄袭,必定有过人之处,粗略看了一下https://github.com/OpenBMB/MiniCPM/b
阅读全文
posted @ 2024-06-17 23:32 第七子007
阅读(2069)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
9
···
22
下一页
公告