摘要: 中文标题:SALT:通过轨迹图为长程智能体进行步级优势分配 作者机构:Jiazheng Li, et al. University of Connecticut, Amazon 论文地址:https://arxiv.org/pdf/2510.20022v1 论文贡献: 1)提出SALT,一个用于长程 阅读全文
posted @ 2025-10-25 15:52 海棠庭院又春深 阅读(19) 评论(0) 推荐(0)
摘要: **中文标题:** 视觉-语言-动作模型的推理时间可供性学习 **作者机构:** Ameesh Shah¹, William Chen¹, Adwait Godbole¹, Federico Mora¹, Sanjit A. Seshia¹, Sergey Levine¹,² (加州大学伯克利分校) 阅读全文
posted @ 2025-10-25 15:40 海棠庭院又春深 阅读(44) 评论(0) 推荐(0)
摘要: **1 Diffusion Transformers with Representation Autoencoders** **中文标题:** 带有表征自动编码器的扩散 Transformer **作者机构:** Boyang Zheng, Nanye Ma, Shengbang Tong, Sai 阅读全文
posted @ 2025-10-25 15:30 海棠庭院又春深 阅读(63) 评论(0) 推荐(0)
摘要: 作者机构:Rohan Choudhury, et al. Carnegie Mellon University, KAIST, General Robotics 论文地址:[https://arxiv.org/pdf/2510.18091v1](https://arxiv.org/pdf/2510. 阅读全文
posted @ 2025-10-25 10:36 海棠庭院又春深 阅读(41) 评论(0) 推荐(0)
摘要: 这篇论文的核心观点在于,对开放权重的大型语言模型 (LLMs) 来说,能够有效地提取用于模型对齐的训练数据。研究人员通过利用在模型后训练阶段引入的聊天模板和特殊标记,能够有效地促使模型“反刍”出类似对齐数据的信息。 论文的主要发现和贡献包括: * **数据提取的有效性**:研究表明,通过这种方法可以 阅读全文
posted @ 2025-10-25 10:18 海棠庭院又春深 阅读(20) 评论(1) 推荐(0)