摘要: LLM在2年多前火了后,RAG也跟着火了,因其解决了当时LLM的一些缺陷问题: 可解释性:数据来自知识库,能找到出处 幻觉:最后一步LLM生成response的内容都来自语义相关的chunk,缩小了LLM的生成范围,能在一定程度上避免幻觉 时效性:一旦有新数据,加入知识库、向量数据库即可,不需要再微 阅读全文
posted @ 2025-03-07 22:42 第七子007 阅读(1332) 评论(0) 推荐(0)