从训练到推理,全球AI芯片要变天了

微信视频号:sph0RgSyDYV47z6
快手号:4874645212
抖音号:dy0so323fq2w
小红书号:95619019828
B站1:UID:3546863642871878
B站2:UID: 3546955410049087
从“训练竞赛”到“推理普及”,一场由市场需求驱动的芯片革命正在重塑全球AI竞争格局。
01
AI迈入推理主导时代
随着生成式AI进入规模化落地阶段,全球科技巨头纷纷加大推理算力布局,一个远大于训练市场的推理市场正悄然崛起,引发芯片产业新一轮变局。
 
 
添加图片注释,不超过 140 字(可选)
2025年,全球AI产业迎来一个历史性转折点。推理市场规模正以惊人的速度膨胀,据全球知名市场研究机构Fortune Business Insights最新数据显示,全球AI推断市场规模在2024年已达914.3亿美元,预计到2032年将增长到2552.3亿美元,复合年增长率高达13.7%。
这一增长背后是AI应用场景的大规模落地,从谷歌、微软等巨头的Token调用量可见一斑:Google的Token月均调用量从去年4月的9.7万亿增长至今年4月的480万亿,增长50倍;微软Azure AI在今年一季度处理了超100万亿Token,较去年同期增长5倍。
 
 
添加图片注释,不超过 140 字(可选)
推理应用需要更多的算力
甲骨文创始人Larry Ellison更是在业绩会上明确指出:“AI推理市场将‘远大于’AI训练市场,而市场上的推理算力正在被耗尽。”
02
从训练到推理的变化
AI产业发展至今,正在经历从“训练为主导”到“推理为主导”的根本性转变。
AI产业的初始阶段以训练为核心,企业投入巨资构建算力集群(例如超算中心和云平台),以提高模型精度。但近年来,市场重心已转向推理——即AI模型在部署后对新数据实时推断的阶段(如用户查询ChatGPT时生成回答、用DeepSeek生成市场调查报告等)。
“训练是‘教AI学习’,推理是‘让AI工作’。” 创新工场董事长李开复曾指出,“当AI开始真正解决实际问题时,推理需求必然呈指数级增长。”这一观点随着AI应用的规模化落地,体现得非常明显。
2024年起,AI模型从实验室走向商业化。据IDC报告(2024年),推理市场占全球AI芯片支出的比例突破65%,远超训练的35%。从智能手机(如苹果A系列芯片运行Siri)到IoT设备(工业检测、智能驾驶),再到云服务(AWS推理服务请求年增40%)。推理不再是训练后的“副产品”,而是持续性的服务需求。而这一持续性的需求,在经济效率差异方面体现得更为明显。
 
 
添加图片注释,不超过 140 字(可选)
推理应用会源源不断地消耗算力
训练耗资巨大但一次性,NVIDIA H100 GPU卡的单卡训练成本可达数百万美元;而推理规模大、频次高,单个模型部署后可处理亿级请求,边际成本低(OpenAI推理服务成本每查询不到0.01美元),这推动企业从“重训练”转向“轻推理运营”。
摩根士丹利最新报告揭示成本核心,以100兆瓦电力为基准的AI推理工厂,平均利润率普遍突破50%,成为科技巨头竞逐的利润高地。正如AMD CEO苏姿丰所言:“未来大模型推理市场规模将远超训练”,毕竟每个ChatGPT对话、每张Midjourney图像,都是推理算力的具体化身。
03
重新定义芯片计算架构
推理市场的爆发性增长,正在颠覆传统计算架构的设计理念,对芯片提出全新要求。
与训练芯片追求极致的计算精度和批量处理能力不同,推理芯片面临的是以低延迟、高能效、低成本为核心指标的挑战场景。在边缘设备上,还要加上严苛的尺寸和散热限制。“训练需要‘大力出奇迹’,推理需要‘四两拨千斤’。” 一位芯片架构师如此形容两者的区别。
 
 
添加图片注释,不超过 140 字(可选)
设计逻辑的重构
传统GPU虽然训练强大,但在推理场景下往往“杀鸡用牛刀”,能效比不足。以内存架构为例,推理任务对内存带宽和容量的需求与训练不同,更注重低延迟访问。存算一体、HBM等新型内存技术正在加速落地。
专门为推理优化的ASIC芯片(如谷歌TPU、华为昇腾)、FPGA方案正在争夺市场份额。而自动驾驶、智能家居、工业物联网等边缘场景,需要能够在瓦级甚至毫瓦级功耗下完成复杂推理的芯片。这催生了如特斯拉FSD、高通AI Engine、英伟达Jetson等专用边缘方案。
04
新旧势力的攻防战
芯片格局的重塑意味着市场秩序的重新洗牌,传统巨头与新兴玩家同时发力。英伟达凭借CUDA生态在训练市场建立的绝对优势,正面临挑战。虽然其GPU目前仍是推理市场的重要选择,但专门为推理优化的竞品正在蚕食其市场份额。
英伟达通过推出TensorRT推理优化器、降低精度(INT8/INT4)以及专用推理芯片如T4、L4等应对挑战。高通、联发科等移动芯片巨头,则凭借在低功耗领域的深厚积累,大举进军边缘AI推理市场,成为不可忽视的力量。
有意思的是亚马逊、谷歌、微软等云巨头自研芯片趋势明显。AWS Inferentia、Google TPU等自研推理芯片首先满足自身云服务需求,降低成本的同时也形成了独特竞争力。
 
 
添加图片注释,不超过 140 字(可选)
科技厂商自研芯片让市场变得多元化
而在全球AI推理芯片变局中,中国芯片企业正在崭露头角。2025年,中国AI计算加速芯片行业市场规模预计将上涨至2398亿元。国产芯片的销售额从60亿涨到160亿,占比由29%提到42%,增速112%,几乎是国外芯片的三倍。
技术层面,华为昇腾910C、寒武纪思元590、海光DCU3、沐曦C550、摩尔S5000被列入第一梯队。它们的FP16算力落在80~100 TFLOPS之间,大概相当于英伟达H100的六成上下。虽然真正训练超大规模模型时仍有代际差,但跑推理、做微调已经够用,价格却只有进口芯片的一半甚至更低。
05
编辑点评推理时代的生存法则
当推理市场规模达到训练的5-10倍,这场芯片变局已不仅是技术路线的选择,更是商业逻辑的重构。训练芯片的“圣杯”虽仍闪耀,但推理市场的“面包”更关乎生存——在这里,没有永恒的王者,只有持续适应场景的进化者。推理芯片的竞争,归根结底是AI普及能力的竞争。
赢得这场竞争的关键,不在于追求极致的算力指标,而在于真正理解千行百业的应用场景,在性能、功耗、成本和易用性之间找到最佳平衡。
 
 
微信视频号:sph0RgSyDYV47z6
快手号:4874645212
抖音号:dy0so323fq2w
小红书号:95619019828
B站1:UID:3546863642871878
B站2:UID: 3546955410049087
 
参考文献链接
 
posted @ 2025-09-29 07:53  吴建明wujianming  阅读(25)  评论(0)    收藏  举报