仅15人!首届腾讯青云奖学金揭晓:人均50万!

2026开年,中国科技界最高规格的人才争夺战终于落下帷幕。继字节跳动宣布20位奖学金得主、英伟达公布10位全球 获选者之后, 腾讯最高规格的学术人才计划——首届“青云奖学金”名单正式出炉。

不同于以往“犀牛鸟”计划的广泛覆盖,这一次,腾讯选择了“极致精英”路线: 全球仅选15人。每位入选者将获得50万元的硬核支持(20万现金+30万独享云端算力) 。在算力即权力的今天,这不仅是奖金,更是为顶尖大脑提供的“核武器”。

Image

趋势洞察:精英画像与算力导向


规模:千里挑一,优中选优

  • 录取率极低: 首届仅授予15人。与行业普遍的“广纳贤士”趋势不同,腾讯选择了“少而精”,聚焦于前沿领域的塔尖人才。
  • 资源升级: 首创“算力奖学金”模式。 30万元的独享算力支持,直接对标大模型时代博士生最紧缺的GPU资源,实现一定程度的“算力自由”。

在这里插入图片描述

核心赛道:Infra成为隐形王者

  • AI Infra(基础设施): 占比显著提升。在大模型落地深水区,系统稳定性、推理加速、显存优化成为腾讯关注的头号课题。
  • 多模态与科学智能: 另外两大核心聚集在3D内容生成(AIGC)与AI for Science(如蛋白质计算),紧扣腾讯“全真互联”与“科技向善”的战略。

在这里插入图片描述

高校版图:大湾区力量崛起

  • 除了清华大学与北京大学继续保持统治力外,香港中文大学(CUHK)、香港科技大学等大湾区高校表现亮眼,展现了在AI系统与计算机视觉领域的深厚积淀。

在这里插入图片描述

聚焦领域:从底层基建到科学智能

浏览这15位获奖者的研究方向,可以清晰地看到腾讯对未来技术趋势的预判。 获奖者的研究领域高度集中在解决“卡脖子”的关键技术上:

极致系统:为万卡训练集群“系上安全带”

  • 方向内容: 面向超大规模训练/推理集群,解决“跑得起来”之外的关键问题——稳定性、可观测性、故障定位与性能治理,以及算子/注意力等关键路径的系统级加速。
  • 产业价值: 把训练从“能跑”提升到“稳跑、快跑、省跑”,降低中断与回滚成本,提升集群有效利用率与交付确定性。
  • 代表获奖者
  1. 邓洋涛(Yangtao Deng)|香港中文大学
    代表作: Minder: Faulty Machine Detection for Large-scale Distributed Model Training》 ( 本文提出了Minder,一种针对大规模分布式模型训练中的故障机器自动检测方法,能有效识别故障机器,减少训练任务中断时间 )
  2. 张金涛(Jintao Zhang)|清华大学
    代表作: 《 SageAttention: Accurate 8-Bit Attention for Plug-and-play Inference Acceleration 》 ( 本文提出了 SageAttention , 以低比特量化把Attention作为加速“主战场”,在尽量不损精度的前提下显著提升推理速度。 )

在这里插入图片描述

在这里插入图片描述

对齐与安全:让大模型更可控、更可信、更可用

  • 方向内容: 围绕大模型在真实场景中的“可用性边界”,重点攻关对齐训练、偏好建模、安全约束与评测闭环,让模型输出在质量、价值观与风险上可控。
  • 产业价值: 支撑企业级部署所需的安全合规、风险控制、质量稳定,把能力从 demo 拉到生产环境。
  • 代表获奖者:
  1. 吉嘉铭(Jiaming Ji)|北京大学
    代表作:《Language Models Resist Alignment: Evidence From Data Compression》 (从“数据压缩/信息论”的视角刻画大模型对齐的“弹性/回弹”机制:即 便经过对齐训练,模型内部仍可能保留可被恢复的未对齐信息;因此在后 续任务微调 或分布变化下,对齐效果可能被快速稀释,表现出“对齐回弹”。)

  2. 胥嘉政(Jiazheng Xu)|清华大学
    代表作:《ImageReward: Learning and Evaluating Human Preferences for Text-to-Image Generation》 (提出ImageReward,用于文生图的人类偏好奖励模型,把“人更喜欢什么样的图”学习成可计算的奖励信号,用于更贴近人类审美的自动评测与训练闭环。)

在这里插入图片描述

在这里插入图片描述

多模态与生成:把“看见”和“创作”变成生产力

  • 方向内容: 聚焦图像/视频等多模态理解与生成,强调两条主线:一是更强的多模态感知与推理,二是更高效的AIGC 生成与加速(更快、更高分辨率、更长视频)。
  • 产业价值 :面向内容生产、营销创意、视频生成、智能交互等场景,实现规模化生成与成本可控。
  • 代表获奖者:
  1. 陈俊松(Junsong Chen)|香港大学
    代表作:《PixArt-α: Fast Training of Diffusion Transformer for Photorealistic Text-to-Image Synthesis》 (本文提出高效DiT(Diffusion Transformer)训练范式与数据策略,在相对更低的训练成本下实现高质量、可扩展到 1024px 的写实文生图生成,为“更快训练、更强质量”的扩散 Transformer 路线提供了可复用的工程与方法论。)
  2. 林彬(Bin Lin)|北京大学
    代表作:《Video-LLaVA: Learning United Visual Representation by Alignment Before Projection》 (本文提出图像与视频统一表征的 LVLM 基线:关 键在“投影前对齐”(Alignment Before Projection),先在视觉侧对齐图像/视频语义,再映 射进同一个 LLM 空间,从而让同一套语言模型更好地同时理解静态图像与动态视频。)

在这里插入图片描述

在这里插入图片描述

具身智能:让大模型走进机器人与真实世界

  • 方向内容: 把大模型能力从“文本/视觉空间”延伸到“动作空间”,攻关机器人基础模型的跨任务泛化、跨硬件迁移、零样本部署与高精度操控。
  • 产业价值: 面向智能制造、服务机器人、实验室自动化等,形成可复用的通用操控底座与工程化落地路径。
  • 代表获奖者:
  1. 刘松铭 (Songming Liu) | 清华大学
    代表作:《RDT-1B: a Diffusion Foundation Model for Bimanual Manipulation》 (本文提出 1.2B 参数的双臂操作扩散基础模型(Foundation Model):强调跨机器人动作空间的统一表达与迁移能力,使模型在不同平台/任务间具备更强的零样本泛化与少样本学习潜力,面向“双臂复杂操作”给出可规模化的基础建模范式。)

在这里插入图片描述

AI for Science:模型成为科研与工程的加速器

  • 方向内容: 将大模型/图模型/统计学习用于科学问题:多组学、遗传机制、疾病解析等,通过数据整合 + 机理推断 + 可解释建模提升科研效率与发现能力。
  • 产业价值: 直接服务医药研发、生命科学平台、科研计算基础设施,推动“AI 赋能科学发现”的规模化应用。
  • 代表获奖者:
  1. 徐明皓(Minghao Xu)|北京大学
    代表作:《PEER: A Comprehensive and Multi-Task Benchmark for Protein Sequence Understanding》 (本文提出蛋白序列理解的综合多任务基准 PEER:覆盖功能、亚细胞定位、结构相关任务以及 PPI/PLI 等交互任务,用统一评测框架系统检验蛋白表征模型的泛化能力与多任务鲁棒性,为蛋白序列模型的“可比性评测”提供标准化基座。)
  2. 宋立阳(Liyang Song)|西湖大学(浙江大学联培)
    代表作:《Mixed model-based deconvolution of cell-state abundances (MeDuSA) along a one-dimensional trajectory3》 (本文提出 MeDuSA:用混合模型将单细胞参考映射到 bulk RNA-seq,并沿“一维轨迹”对细胞状态丰度进行高分辨率反卷积估计;在连续生物过程(如分化/激活)中,实现更细粒度的细胞状态组成重建与动态变化刻画。)

在这里插入图片描述

在这里插入图片描述

学术前沿:AMiner深度画像

我们利用 AMiner 学者库,对部分代表性获奖者进行了深度挖掘。

01. 白雨石(Baishi Bai)|清华大学

  • 学术背景: 导师李涓子;长期聚焦长上下文大模型与大模型评测。
  • 硬核成果: 在 NeurIPS / ICML / ICLR / ACL 等发表多篇论文(含 10 篇一作),总引用 4000+,单篇引用 2000+。
  • 技术突破: 开源 LongBench、LongWriter、LongAlign 等评测/数据工作,形成可复用的长上下文能力度量体系。
  • 开源影响: 相关项目 GitHub 3000+ stars、300+ forks;HuggingFace 开源数据集/模型下载 200 万+。
  • 产业结合: 可支撑云上大模型长上下文能力评测、训练/推理回归与指标体系建设。

在这里插入图片描述

02. 陈俊松(Junsong Chen)|香港大学

  • 学术背景: 导师罗平;主攻 AIGC 高效视觉生成大模型。
  • 硬核成果: 深耕扩散模型高效部署;早期贡献 PixArt,近期主导 SANA 系列效率突破。
  • 技术突破: SANA 原生支持 4K 图像生成;SANA-Sprint 达成 0.1 秒实时成像;SANA-Video 支持分钟级长视频合成。
  • 开源影响 :成果累计引用 2500+;GitHub 1.9 万+ stars。
  • 产业结合: 适配大规模内容生成的降本增效与端到端加速落地(面向云与消费级场景)。

在这里插入图片描述

03.张金涛(Jintao Zhang)|清华大学

  • 学术背景: 导师朱军;研究方向为高效机器学习系统。
  • 硬核成果: 以一作发表 A 类国际顶会长文 9 篇(覆盖 ML/DB 三大顶会)。
  • 技术突破: SageAttention 聚焦低比特量化加速注意力计算;并产出 TurboDiffusion、Sparge-Attn、Sparse-Linear Attention 等系统方向工作。
  • 开源影响: SageAttention GitHub 3000+ stars;被 200+ 家知名企业真实产品采用。
  • 产业结合: 直接对应训练/推理加速、算力成本优化与系统工程落地

在这里插入图片描述

04. 邓洋涛(Yangtao Deng)|香港中文大学

  • 学术背景: 导师徐宏;聚焦 AI 基础设施与系统。
  • 硬核成果: 研究大语言模型预训练中的稳定性难题,形成可观测与诊断框架。
  • 技术突破: 提出细粒度、实时的数据依赖追踪与根因分析系统,用于定位训练过程中的异常与性能退化。
  • 学术影响: 相关工作见于 SOSP、NSDI、NDSS、FSE 等系统/安全顶会。
  • 产业结合: 面向大规模预训练集群,可支持异常快速告警与系统级可靠性治理。

在这里插入图片描述

05. 吉嘉铭(Jiaming Ji)|北京大学

  • 学术背景: 导师杨耀东;研究方向为大模型安全与强化学习对齐。
  • 硬核成果: 聚焦偏好与意图对齐;在 AI 顶会以一作/共一作发表 14 篇;代表论文被评为 ACL 2025 最佳论文。
  • 技术突破: 推进人类偏好对齐与系统安全的统一建模与训练框架。
  • 开源影响: 谷歌学术引用 4600+;GitHub 开源项目 3.2 万+ stars;开源模型累计下载 500 万+。
  • 产业结合: 可服务大模型安全对齐、红队评测与训练策略优化。

在这里插入图片描述

结语:云端起步,探索无界

首届腾讯青云奖学金的15人名单,虽然人数精简,但分量极重。它代表了腾讯对基础科研人才的最高礼遇,也展示了企业界对“硬核科技”的持续投入。

通过“资金+算力”的双轮驱动,腾讯正在帮助这批全球最聪明的头脑,跨越算力的门槛,去触碰技术的青云之端。

在这里插入图片描述

我们期待这15位青年学者,在未来的科研道路上,创造出更多改变世界的成果。

posted @ 2026-01-25 01:53  AI情报挖掘日志  阅读(23)  评论(0)    收藏  举报