摘要: 微信公众号:AutoML机器学习 MARSGGBO♥原创 如有意合作或学术讨论欢迎私戳联系~邮箱:marsggbo@foxmail.com 阅读全文
posted @ 2021-11-29 21:12 marsggbo 阅读(294) 评论(0) 推荐(0)
摘要: 论文: AutoML: Survey of the State-of-the-Art 下面这个网站会不断更新AutoML相关的论文,当然如果你的论文未被收录,你也可以手动上传你的论文让更多人看到: https://marsggbo.github.io/automl_a_survey_of_state 阅读全文
posted @ 2020-07-09 19:01 marsggbo 阅读(1480) 评论(1) 推荐(0)
摘要: 之前已经发过一篇文章来介绍我写的 "AutoML综述" ,最近把文章内容做了更新,所以这篇稍微细致地介绍一下。由于篇幅有限,下面介绍的方法中涉及到的细节感兴趣的可以移步到论文中查看。 论文地址:https://arxiv.org/abs/1908.00709 1. Introduction 以往的模 阅读全文
posted @ 2020-02-11 12:01 marsggbo 阅读(1875) 评论(0) 推荐(2)
摘要: 特大喜讯!!! 本专栏开通了同步更新的微信公众号【AutoML机器学习】,不常用知乎的小伙伴们欢迎关注,一起学习!!! 阅读全文
posted @ 2020-01-28 18:28 marsggbo 阅读(698) 评论(2) 推荐(1)
摘要: 做件好事,考四级的兄弟们一起共勉~~~ 链接:https://pan.baidu.com/s/1im4BDVZofZbT9f5PZtsxdA 密码:9i5h ​若链接失效请关注如下公众号,后台私信【计算机四级】即可获得更新链接。 微信公众号:AutoML机器学习 MARSGGBO♥原创 如有意合作或 阅读全文
posted @ 2018-03-08 10:54 marsggbo 阅读(4899) 评论(0) 推荐(0)
摘要: 第一章 神经网络与深度学习(Neural Network & Deeplearning) "DeepLearning.ai学习笔记(一)神经网络和深度学习 Week3浅层神经网络" "DeepLearning.ai学习笔记(一)神经网络和深度学习 Week4深层神经网络" 第二章 改善深层神经网络 阅读全文
posted @ 2017-09-03 20:44 marsggbo 阅读(10342) 评论(1) 推荐(2)
摘要: 因为是Jupyter Notebook的形式,所以不方便在博客中展示,具体可在我的github上查看。 github传送门 : "deeplearning.ai_JupyterNotebooks" 笔记传送门 : "DeepLearning.ai课程相关系列笔记" 微信公众号:AutoML机器学习 阅读全文
posted @ 2017-08-31 17:34 marsggbo 阅读(5960) 评论(0) 推荐(0)
摘要: 笔记总结,各章节主要内容已总结在标题之中 "Andrew Ng机器学习课程笔记–week1(机器学习简介&线性回归模型)" "Andrew Ng机器学习课程笔记 week2(多元线性回归&正规公式)" "Andrew Ng机器学习课程笔记 week3(逻辑回归&正则化参数)" "Andrew Ng机 阅读全文
posted @ 2017-08-25 18:28 marsggbo 阅读(5952) 评论(0) 推荐(3)
摘要: 今天想和大家聊聊这篇来自港科大的工作 —— Expert Streaming,最近在 arXiv 上出现,是少见的从芯片架构角度直接解决 MoE 推理内存瓶颈的硬核工作。 先交代下背景:MoE 火是真的火,DeepSeek、Qwen3 都在往 MoE 走,但我们自己跑的时候,却结结实实踩了个大坑 — 阅读全文
posted @ 2026-04-29 15:35 marsggbo 阅读(11) 评论(0) 推荐(0)
摘要: 原文:CacheSlide: Unlocking Cross Position-Aware KV Cache Reuse for Accelerating LLM Serving 1. 前言:两种方案都不够用 作为一个天天和 LLM 推理打交道的牛马,我对 KV Cache 这个话题有复杂感情——它 阅读全文
posted @ 2026-04-29 15:35 marsggbo 阅读(18) 评论(0) 推荐(0)
摘要: 原文:KVCOMM: Online Cross-context KV-cache Communication for Efficient LLM-based Multi-agent Systems(Duke / MIT / NVIDIA,OpenReview 投稿) 代码:https://githu 阅读全文
posted @ 2026-04-29 15:33 marsggbo 阅读(15) 评论(0) 推荐(0)
摘要: 原文:DroidSpeak: KV Cache Sharing for Cross-LLM Communication and Multi-LLM Serving 1. 前言:一个很自然但从没人解决过的问题 KV Cache 共享这件事,在单个模型的场景里已经做得很成熟了——vLLM 的 prefi 阅读全文
posted @ 2026-04-26 15:11 marsggbo 阅读(19) 评论(0) 推荐(0)
摘要: 多 Agent LLM 推理的 KV Cache 冗余问题,这篇论文给出了一个优雅的解法 1. 前言:一个被忽视的大坑 想象这样一个场景:你在跑一个多 Agent 仿真,20 个 Agent 在互动,每轮结束后所有人把彼此的输出 All-Gather 一遍,然后各自基于这一轮的"公共信息"再生成下一 阅读全文
posted @ 2026-04-24 15:46 marsggbo 阅读(40) 评论(0) 推荐(0)
摘要: 你有没有想过,当你让 ChatGPT "记住你喜欢简洁的回答",或者让代码助手"别忘了这个项目用的是 TypeScript"时,这些信息究竟去了哪里? 这个问题比表面看起来复杂得多。LLM 本身是"无状态"的——每次对话都是从零开始,模型并没有一个专门的"记忆区"来存放你的偏好。那些看似被"记住"的 阅读全文
posted @ 2026-04-03 16:08 marsggbo 阅读(55) 评论(0) 推荐(0)
摘要: 原文链接: https://zhuanlan.zhihu.com/p/491172953 阅读全文
posted @ 2025-11-13 11:04 marsggbo 阅读(91) 评论(0) 推荐(0)
摘要: SVD 是怎么被“想出来”的?——从一个朴素问题出发 你有没有见过这样的公式? \[M = U \Sigma V^T \]看起来挺简洁,对吧?但当你翻开教材,发现这背后藏着一堆正交矩阵、奇异值、特征向量……瞬间头大。 我每次看到 SVD,都忍不住想:这玩意儿到底是怎么被“想出来”的?是某个数学家喝多 阅读全文
posted @ 2025-10-31 18:09 marsggbo 阅读(149) 评论(0) 推荐(1)
摘要: 1. 强化学习基础:行业黑话 想象你正在和一个刚训练好的语言模型聊天。你问:“今天过得怎么样?” 模型可能回:“还行。” 也可能回:“我是个 AI,没有感情。” 人类觉得前者更自然、更友好——这就是偏好反馈。强化学习(RL)在 LLM 中的核心任务,就是让模型学会生成“人类更喜欢”的回复。 为了做到 阅读全文
posted @ 2025-10-23 22:23 marsggbo 阅读(483) 评论(0) 推荐(0)
摘要: 在写科研文稿时,我们经常需要插入结构图、模型图等 PDF 格式的矢量图。但在 Overleaf 中,我遇到了一个较难定位的问题:使用 \includegraphics 插入 PDF 图片时,编译无报错,但无法显示图片甚至生成 PDF 文件失败。提示如下信息 No PDF This compile d 阅读全文
posted @ 2025-04-19 14:29 marsggbo 阅读(864) 评论(0) 推荐(0)