摘要:
前面分析了LLM有了超长上下文,还需要RAG么?,结论是:RAG 在精准性、实时性和成本上仍有绝对优势。如果你需要精准答案、实时数据、低幻觉,RAG 仍是必选项。 哪在目前目前常见LLM的上下文普遍支持64K–128K,部分达到百万级背景下,RAG的拆分块大小是否需要增大呢? 先说结论: RAG的拆 阅读全文
posted @ 2025-04-09 13:40 蝈蝈俊 阅读(337) 评论(0) 推荐(0)
|
|
|
|
摘要:
前面分析了LLM有了超长上下文,还需要RAG么?,结论是:RAG 在精准性、实时性和成本上仍有绝对优势。如果你需要精准答案、实时数据、低幻觉,RAG 仍是必选项。 哪在目前目前常见LLM的上下文普遍支持64K–128K,部分达到百万级背景下,RAG的拆分块大小是否需要增大呢? 先说结论: RAG的拆 阅读全文
posted @ 2025-04-09 13:40 蝈蝈俊 阅读(337) 评论(0) 推荐(0) |
|