上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 234 下一页

2025年2月20日

RAG七十二式:2024年度RAG清单

摘要: RAG七十二式:2024年度RAG清单 转:https://mp.weixin.qq.com/s/Sy1dSx5RUtD6rjMY7_efkw ▍作者:范志东,蚂蚁图计算开源负责人、图计算布道师 回顾2024,大模型日新月异,智能体百家争鸣。作为AI应用的重要组成部分,RAG也是“群雄逐鹿,诸侯并起 阅读全文

posted @ 2025-02-20 16:32 ExplorerMan 阅读(180) 评论(0) 推荐(0)

DeepSeek最强专业拆解来了,清交复教授超硬核解读

摘要: https://mp.weixin.qq.com/s/LsMOIgQinPZBnsga0imcvA DeepSeek的写作能力为何飞跃?PTX是否真正做到了绕开CUDA的垄断?编辑 | ZeR0智东西2月3日报道,周日晚间,五位高校教授夜话DeepSeek,从模型方法、框架、系统、基础设施等角度,阐 阅读全文

posted @ 2025-02-20 15:25 ExplorerMan 阅读(99) 评论(0) 推荐(0)

万字解析DeepSeek MOE架构——从Switch Transformers到DeepSeek v1/v2/v3

摘要: 前文对基于DeepSeek v3 Base模型训练的deepseek-R1技术报告进行了解读,如有需求可阅读: 浮生梦晓:DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning——技术报告详 阅读全文

posted @ 2025-02-20 11:44 ExplorerMan 阅读(643) 评论(0) 推荐(0)

2025年2月19日

大语言模型应用开发框架 —— Eino 正式开源!

摘要: 经过字节跳动内部半年多的使用和迭代,基于 Golang 的大模型应用综合开发框架 —— Eino,已在 CloudWeGo 正式开源啦! Eino 基于明确的“组件”定义,提供强大的流程“编排”,覆盖开发全流程,旨在帮助开发者以最快的速度实现最有深度的大模型应用。 你是否曾有这种感受:想要为自己的应 阅读全文

posted @ 2025-02-19 20:39 ExplorerMan 阅读(379) 评论(0) 推荐(0)

VisRAG:基于视觉的检索增强生成方法

摘要: 研究背景 研究问题:这篇文章要解决的问题是如何在多模态文档中利用视觉信息来增强大型语言模型(LLMs)的生成能力。传统的检索增强生成(RAG)系统仅基于文本,无法利用布局和图像等视觉信息,这在现实世界的多模态文档中非常重要。 研究难点:该问题的研究难点包括:如何在多模态文档中直接嵌入图像并使用视觉语 阅读全文

posted @ 2025-02-19 19:45 ExplorerMan 阅读(186) 评论(0) 推荐(0)

梳理2024年的RAG

摘要: 在已经过去的 2024 年,RAG 的发展可以称得上是风起云涌,我们回顾全年,从多个角度对全年的发展进行总结。首先用下图镇楼: 对于 2024 年的 RAG 来说,有一系列标志性事件: 关于 RAG 的争论——RAG 已死,RAG 永存 ! 2024 年在年初被称为“RAG 发展元年”,虽然这并非共 阅读全文

posted @ 2025-02-19 19:37 ExplorerMan 阅读(304) 评论(0) 推荐(1)

2025年2月18日

谷歌 DeepMind 推出 OPRO 技术,可优化 ChatGPT 提示

摘要: 据站长之家 11 月 21 日报道,在最新的 AI 研究报道中,Google DeepMind 推出了一项名为“优化通过提示(OPRO)”的技术,将大型语言模型(LLM)作为其自身提示的优化器。该方法旨在通过自然语言描述问题,指导 LLM 生成和改进解决方案,从而提高提示性能。 DeepMind 的 阅读全文

posted @ 2025-02-18 14:17 ExplorerMan 阅读(89) 评论(0) 推荐(0)

PromptWizard:微软开源 AI 提示词自动化优化框架

摘要: ‌PromptWizard‌是一个由微软研究院开发的自动化提示词优化框架,旨在改进大型语言模型(LLMs)在特定任务中的表现。该框架通过自我演变和自我适应机制,利用反馈驱动的批评和合成过程,迭代优化提示指令和上下文示例,从而提高模型的准确性和效率‌12。 主要功能和技术原理 PromptWizard 阅读全文

posted @ 2025-02-18 11:40 ExplorerMan 阅读(445) 评论(0) 推荐(0)

Flow-DPO通过在线多Agent学习提升LLM的数学推理能力

摘要: ‌Flow-DPO‌是一种通过在线多智能体学习来提升LLM(大型语言模型)数学推理能力的新方法。Flow-DPO结合了在线学习流(Flow)和直接偏好优化(DPO),通过两个独立的语言模型互相协作,纠正对方的错误,从而生成更加准确和详细的推理轨迹‌12。 工作原理 Flow-DPO的核心在于构建两个 阅读全文

posted @ 2025-02-18 11:27 ExplorerMan 阅读(56) 评论(0) 推荐(0)

2025年2月17日

2024年大模型 对比

摘要: 自OpenAI在2022年12月发布GPT-3.5模型驱动的ChatGPT以来,生成式AI就如火如荼地展开了一场声势浩大的「军备竞赛」。 而仅仅不到两年,多个实验室就都已经赶上了OpenAI的GPT-4,甚至出现了第一批超越GPT-4o智能水平的模型。例如:Claude 3.5 Sonnet,Gem 阅读全文

posted @ 2025-02-17 20:54 ExplorerMan 阅读(70) 评论(0) 推荐(0)

上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 234 下一页

导航