英特尔前CEO基辛格:GPU将被取代!
微信视频号:sph0RgSyDYV47z6
快手号:4874645212
抖音号:dy0so323fq2w
小红书号:95619019828
B站1:UID:3546863642871878
B站2:UID: 3546955410049087
电子发烧友网报道(文/黄山明)“2030年前,GPU将被取代!”2025年11月下旬,英特尔前CEO帕特·基辛格(Pat Gelsinger)在接受《金融时报》采访时这样说。而基辛格之所以保持如此激进的想法,是因为其认为量子技术的普及时间可能远超所有人的想象。
与此同时,基辛格还表示,当前AI泡沫确实存在,而量子计算的突破性进展将从根本上改变行业格局,也就是说,量子计算将是戳破当前AI泡沫的关键“引爆点”。
GPU将被量子计算技术取代?
在采访中,基辛格将传统运算、AI运算与量子运算并称为“运算领域的神圣三位一体”。他表示量子计算、经典计算与AI计算将不再是替代关系,而是融合互补、协同工作的三大支柱,共同支撑未来的计算世界。
并且基辛格还认为,量子计算将在2年内实现主流普及。而行业普遍预期在15-20年左右,英伟达的黄仁勋更是在今年1月份的CES展会上明确表示,量子计算技术要达到“非常有用”的使用阶段,需要15-30年时间,而20年时间较为合理的预期。
为何大佬们对于量子计算的普及时间有如此大的分歧?我们需要先搞明白,什么是量子计算,这是一种遵循量子力学规律的新型计算模式。它和我们现在使用的经典计算机在底层原理上完全不同。
这是因为量子计算主要靠量子比特,这是量子计算的基本信息单位,不同于经典比特只能是0或1,量子比特可以同时处于0和1的“叠加态”。这就像一枚旋转的硬币,在落地前同时拥有正反两种状态。正因如此,n个量子比特可以同时表示2的n次方种状态。这让量子计算机在处理特定复杂问题时,能够同时探索海量可能性,实现指数级的算力超越。
基辛格认为量子计算代表着计算范式的根本变革,而不仅仅是性能提升。因此他激进的表示,量子计算的突破将在两年内刺破当前的AI泡沫,并预计GPU将在2030年前被量子计算取代。
而近年来,量子计算硬件发展迅速,2024年IBM发布了Heron R2处理器,拥有156量子比特,支持5000个双量子比特门操作,速度较第一代提升50倍。同年谷歌也发布了拥有105比特的Willow芯片,性能上可以在5分钟内完成经典超算需10²⁵年才能完成的基准计算。
2025年全球多个国家启动了超导量子计算专项计划,重点研发量子经典混合架构,以解决当前量子计算机的纠错难题,推动实际应用落地。
值得注意的是,在卸任英特尔CEO职务后,基辛格加入了风投机构playground global,而这个机构恰好投资多家量子计算初创企业(如PsiQuantum、Rigetti等),因此基辛格的此番言论可能是为了吸引资本关注量子赛道。
并且在基辛格执掌英特尔之时,正值英伟达GPU业务迅速崛起,让英特尔的CPU难以抗衡。并且在当时,英特尔对晶圆制造投入了百亿美元,但并未能取得预期成效。更有趣的是,在基辛格担任英特尔CEO期间,还发布了一款拥有12个量子比特的Tunnel Falls量子处理器,在2023年底更是签署协议,计划 2030年代初开发数万量子比特系统。但随着英特尔换帅,这一进程能够有序推进,犹未可知。
AI泡沫即将破裂?
在采访中,基辛格还认为,当前AI泡沫确实存在,并且目前正在经历典型的泡沫周期,资本过度涌入和技术炒作已形成双重杠杆效应,企业才刚刚开始从AI中获得实际收益,但投资规模已经远超长期收入确定性。
不过基辛格也表示,AI泡沫短期内不会破裂,至少在量子技术突破之前不会破裂,他认为量子比特一旦能将某些AI训练任务从O (n²) 复杂度降至O (logn),GPU的护城河将瞬间蒸发。
O (n²) 表示随数据规模n增大,计算量呈平方级增长,例如10万数据需100亿次运算,而O(logn)则表示计算量几乎不随数据规模增长。
而GPU目前在AI领域中有三个核心优势,以英伟达为例,拥有强大的并行计算能力、成熟的CUDA生态以及能效比优势。不过一旦量子计算实现从O (n²) 复杂度降至O (logn)时,量子计算可以通过HHL算法将矩阵求逆复杂度大幅降低,训练时间从“月”缩短至“小时”甚至“分钟”,但即便是顶级的GPU集群也至少需要数周的时间。
能效上更是大幅降低,一个量子比特运算的能耗仅为GPU单个晶体管的百万分之一,使大规模AI训练成本暴跌90%以上。这意味着GPU厂商将面临着技术代差所导致的市场份额崩塌,一如当年CPU厂商被GPU超越的历史重演。
但事实果真如此吗?从技术上来看,目前的量子比特非常脆弱,极易受到环境干扰,计算错误率很高,要实现有实用价值的容错量子计算,还需要在量子纠错技术上取得重大突破,而这被认为是行业的中长期目标,短时间内很难实现。
并且在可以预见的未来,量子计算机不太可能完全取代GPU或经典计算机。更可能出现的模式是“量子-经典混合计算”。在这种模式下,量子处理器负责解决其中最核心、最复杂的部分,而GPU和CPU则继续处理其擅长的通用计算和图形任务。事实上,英伟达等公司已经在布局这样的混合平台。
即便量子计算机真的普及了,其在某些特定问题上,例如材料模拟、药物发现、密码破译、复杂优化等确实能够展现出巨大的优势,但对于我们日常的绝大多数计算任务,经典计算机在可预见的未来依然是更高效、更经济的选择。
但这并不意味着基辛格说的毫无道理,这种言论也算是一种提醒,当前的AI热潮可能因技术范式转移而产生结构性风险,导致不少AI相关企业面临着估值上的泡沫。
从技术上来看,与其说未来量子计算会终结GPU,不如说行业将从单一算力主导的时代,进入到异构计算的新时代,量子-经典混合计算也是当下行业的主流方向。
写在最后
2007年,时任英特尔副总裁的基辛格曾宣称“显卡将在两三年内消失”,彼时基辛格正在极力推动英特尔内部的Larrabee项目,试图用x86多核架构统一通用计算和图形处理,认为CPU+融合架构可以取代传统显卡。
但英伟达当时已凭借GeForce系列逐步确立GPU在3D游戏、专业图形领域的统治地位,黄仁勋则坚持GPU专有架构路线,与英特尔CPU万能论形成了鲜明对比。而2010年后,深度学习兴起,GPU的大规模并行计算能力被证明极其适合AI模型训练,英伟达CUDA生态更是将GPU从游戏显卡推向AI算力之王。
而英特尔Larrabee的x86多核架构难以匹敌传统GPU在图形渲染和并行计算上的效率,其性能未达预期,最终项目被取消,仅转型为Xeon Phi用于部分高性能计算领域。
此次基辛格再次预言GPU将被量子计算终结,或许是延续了他对颠覆性技术的信仰。况且,我们总是高估了短期的技术发展,低估了长期的技术变革。
微信视频号:sph0RgSyDYV47z6
快手号:4874645212
抖音号:dy0so323fq2w
小红书号:95619019828
B站1:UID:3546863642871878
B站2:UID: 3546955410049087
参考文献
人工智能芯片与自动驾驶

浙公网安备 33010602011771号