卡内基梅隆大学ICML 2025机器学习研究成果精选
卡内基梅隆大学在ICML 2025会议上的研究成果
概述
卡内基梅隆大学研究人员在第42届国际机器学习会议(ICML 2025)上展示127篇论文,会议于7月13日至19日在温哥华会议中心举行。以下是研究重点领域的概览:
口头报告论文
预期变分不等式
作者:Brian Zhang等
提出预期变分不等式(EVI),作为变分不等式(VI)的松弛形式,旨在找到满足期望VI条件的分布。研究证明EVI可高效求解非单调条件问题,并统一平滑博弈、约束博弈和非凹效用场景的相关结果。
投票排行榜的对抗操纵与防御
作者:Yangsibo Huang等
研究发现基于投票的大型语言模型评估基准(如Chatbot Arena)易受对抗操纵。攻击者可通过识别模型来源并策略性投票操纵排行榜,仅需约千次投票即可在模拟环境中实现攻击。研究团队与平台开发者合作提出reCAPTCHA和登录要求等安全措施。
高维预测在序列决策中的应用
作者:Georgy Noarov等
提出对抗性非平稳环境中可靠多维预测的新算法框架,支持多智能体在不同目标、大动作空间或特定条件(如天气或路径选择)下同时获得性能保证,应用于在线组合优化和多校准问题。
LLM-SRBench科学方程发现基准
作者:Parshin Shojaee等
推出LLM-SRBench基准,包含4个科学领域的239个难题,分为隐藏经典物理方程的LSR-Transform和完全合成推理任务LSR-Synth两类。当前最佳模型准确率仅31.5%,凸显该基准对推动LLM科学发现的价值。
差分隐私在自适应搜索问题中的应用
作者:Shiyuan Feng等
研究差分隐私如何保护自适应搜索查询中的信息泄露,设计返回实际解决方案(如最近邻或回归向量)的算法,分析关键参数(近似近邻数量或数据矩阵条件数)对私有算法性能的影响。
突破下一词预测的创造性限制
作者:Vaishnavh Nagarajan等
通过抽象任务探究语言模型的创造性极限,发现标准下一词预测存在短视和过度记忆问题,而无教师训练和扩散模型能产生更多样化输出。提出输入端随机化的种子调节技术以提升连贯性。
训练通用探索智能体Paprika
作者:Fahim Tajwar等
提出Paprika微调方法,使语言模型通过交互学习通用决策和探索策略,无需额外训练即可适应新任务。采用课程学习优先高价值任务,在有限交互数据下实现向全新任务的强迁移。
焦点论文
GMAIL生成模态对齐方法
作者:Shentong Mo等
提出将真实图像和生成图像视为不同模态并在潜在空间中对齐的方法,通过特殊损失微调模型,提升图像描述和检索等任务的性能。
LOCATE 3D自监督物体定位
作者:Paul McVay等
开发基于自然语言描述在3D场景中定位物体的模型,利用RGB-D传感器数据和3D-JEPA自监督学习方法,在13万样本数据集上训练,实现跨环境泛化。
MAETok扩散模型标记化方法
作者:Hao Chen等
提出掩码自编码器MAETok为扩散模型构建高质量潜在空间,仅需128个标记在ImageNet上超越现有方法,训练速度提升76倍,推理速度提升31倍。
第三方AI评估与缺陷披露框架
作者:Shayne Longpre等
针对通用AI缺乏缺陷报告系统的问题,提出标准化报告格式、法律保护的研究者披露计划和缺陷分发基础设施三大解决方案。
测试时计算扩展的验证必要性
作者:Amrith Setlur等
通过理论和实验证明,在有限计算或数据下,基于验证的方法显著优于无验证方法,且性能差距随任务复杂性增加而扩大。
ShadowKV高效长上下文推理系统
作者:Hanshi Sun等
提出通过低秩表示压缩键缓存和卸载值缓存的ShadowKV系统,支持6倍批量大小和3倍吞吐量提升,同时保持模型质量。
海报论文
(按主题分类列出,涵盖可解释性、主动学习、因果发现、计算机视觉、深度学习、公平性、强化学习等36个领域的百余篇研究)
内容仅代表学术研究进展,不涉及任何商业推广
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码


浙公网安备 33010602011771号