裁员15%的360亿AI芯片独角兽,Sam Altman 在国会承认:中美AI差距越来越小

美国AI芯片独角兽SambaNova Systems近期宣布将裁员77人,约占其500名员工的15%。此次裁员正值该公司偏离最初目标,放弃做AI训练,转向完全专注于AI推理。
SambaNova成立于2017年,总部位于美国加州,曾希望为训练和推理打造基于统一架构的AI芯片,2023年发布了一款专为大语言模型微调和推理设计的芯片。其上一轮融资是2021年的D轮融资,使其融资总额超过11亿美元(约合人民币80亿元),估值超过50亿美元(约合人民币362亿元)。
SambaNova发言人称,该公司做出了一些调整,以适应当前的市场状况以及从模型训练到微调和推理的转变。SambaNova已迅速转向专注于提供云优先解决方案,帮助企业和开发者大规模部署开源模型。
在AI训练市场,英伟达的统治地位难以撼动。相对而言,在AI推理市场收获客户可能性更大。随着大模型服务日益普及,模型推理亟需更高性价比的算力基础设施,这使得数据中心AI推理芯片市场规模被空前看好。数据中心领域的AI芯片和硬件创企已转向通过云端提供对开源大语言模型的API访问。
SambaNova的目标客户群是企业市场,他们正尝试通过云服务部署基于大语言模型的应用程序来进入推理领域,去年9月首次推出SambaNova Cloud。该公司的软件栈SambaNova Studio面向企业AI,并随SambaNova机架式硬件一起提供,用于本地集群和云端。
近几个月来,AI芯片独角兽SambaNova、Cerebras、Groq,通过自有硬件提供大语言模型token服务。这三家公司最初都专注于为其他云服务提供商和本地AI计算销售硬件系统,其中SambaNova和Cerebras仍在销售硬件系统。
SambaNova平台搭载其第四代处理器SN40L。SN40L采用数据流架构和三层内存架构,提高了AI推理效率。通过整合超大内存,单个SambaNova系统即可容纳数TB的模型。
根据独立AI基准测试公司Artificial Analysis的测试结果,SambaNova在DeepSeek R1 671B上平均每秒每位用户可交付250个token,而使用GPU的提供商平均每秒每位用户仅交付19个token,这意味着SambaNova的推理性能平均比GPU驱动的系统快10倍以上。
尽管多家AI芯片创企曾披露“超越英伟达”的雄心,并试图通过提供更具竞争力的价格来打动客户,但芯片市场竞争非常残酷,英伟达的生态影响力难以撼动,其他在AI芯片市场上有所作为的供应商也以芯片大厂居多。
精简团队、聚焦主线,是近期多家芯片企业为改善业绩、增强竞争力的主要手段。随着企业适应不断变化的行业竞争和经济状况,2025年科技行业的裁员名单预计会变得更长。
当 Sam Altman 再次走进华盛顿特区参议院的听证大厅时,坐在他对面的,不只是几位议员,而是一整套制度在等待回应:
  • AI 会毁掉工作,还是释放新的生产力?
  • 美国还领先吗?中美差距到底在哪?
  • 如果未来被一个“AI系统”主导,那系统该由谁定义?
他没有像技术人那样讲模型升级、参数突破,也没像创业者那样谈公司估值、产品路径。
他开口就说:“我们正在建设世界上最大的 AI 工厂。” 他讲隐私、讲能源、讲就业、讲国家竞争力。 他说:“未来十年,谁掌握智能和能源,谁就赢。”
而在他发言的最后,他抛出一个几乎没人准备好的判断:
AI可能是人类历史上最大的技术变革,但就连他自己也不知道它将走向何方
这不是一次产品发布会,这是一次国策级的预警。
听懂他讲话的人,才知道这场竞争的底层规则已经改写。
第一节|系统开始裂缝了
“能在这里,是一种真正的荣幸。”
这是 Sam Altman 5 月 8 日再次站上国会山作证时说的第一句话。
但接下来,他说出的第一组数据却让人警觉:“ChatGPT 每周有五亿人使用。我昨天刚看到,根据 SimilarWeb 的数据,它现在是全球第五大网站,增长非常迅速。”
Altman 指出,过去两年,美国的医疗、科研、教育、客服等基础服务体系,已经被 AI “静默嵌入”:研究效率提升,医疗建议下沉,学习方式重构。他不是在夸产品,而是在发出预警:AI 不是一次“行业升级”,而是一次“系统重构”。AI 不再是即将发生的事,而是已全面渗入我们日常的现实。
然后他讲了一段即兴插曲。“我是在圣路易斯长大的,一个电脑极客。小时候整夜不睡觉学编程,在阁楼里用的是美国制造的 Mac,那台芯片就在我现在住的地方附近设计的。”
他说,这段经历让他坚信,美国的创新精神,曾是 AI 发生的土壤。
但他紧接着补了一句:
“我们必须确保它能继续发生。要继续发生,我们需要重建系统。”
什么系统?
他说,不是软件团队,不是模型算法,而是一整套“AI 工厂”体系:能源 → 芯片 → 数据中心 → 模型 → 应用。
“我们正在德克萨斯州阿比林建设世界上最大的 AI 训练设施。它进展顺利,但我们需要更多这样的工厂……这一整套 AI 供应链必须在美国落地。”
这已经不是 OpenAI 的产品规划,而是美国国家系统能力的“承压测试”。
最后,他抛出一句判断:“未来十年将是关于丰富的智能和丰富的能源,确保美国在这两方面都领先,是至关重要的。”
他不是在争某一轮技术领先,而是在争系统不掉队。
因为一旦能源断供、芯片外溢、数据受限、标准缺席,整个 AI 体系就会陷入结构性瘫痪。
第二部分|AI 工厂,是美国的下一座水电站
 
 
添加图片注释,不超过 140 字(可选)
如果说上一节是AI对社会系统的压力测试,那么 Altman 接下来的发言,更像是一份“国家级基础设施施工图”。
✅ AI 工厂不是产品,是国家工程
他从一个地方讲起:“昨天我去了德克萨斯州的阿比林,那里我们正在建设世界上最大的 AI 训练设施。”不是办公室,不是园区,而是AI 工厂(AI factory)。
他解释说,AI 模型的背后,不是几行代码,而是一整套现代工业链路:
  • 你需要电力,源源不断;
  • 你需要芯片,最好是美国自己设计和制造的;
  • 你需要数据中心,不是几千台机器,而是“超级计算厂房”;
你还需要建构这些机器的机架,安装调度系统,冷却设备,高压转换装置,甚至消防通道。
然后——你才能训练一次大型模型。
这已不是硅谷式的“软件创业故事”,而是类似修铁路、建水坝、造航母那样的国家工程。
Altman 说得很直白:“我们需要更多这样的设施。有一整套 AI 工厂,像一条完整的供应链,我们必须在美国完成这些建设,才能继续创新、继续领先。
这听上去,像是一版 AI 时代的“罗斯福新政”—— 它不是为了解决就业问题,而是为了重塑国家竞争力的底座。
✅ 智能的尽头,是能源账单
他提出一个很容易被忽略的公式:
智能的最终成本 = 能源的成本
你可以把 Altman 的逻辑理解为这样一组简明等式:
  • Token = 电力 × 芯片 × 算法 × 数据 × 冷却系统
  • 智能系统 = 一个超级耗能的工业基础设施
  • 下一轮国家竞争力 = 谁能让AI工厂在本国规模部署
换句话说:AI 不是“云里转的算法”,而是一条吞电、耗芯、讲工业组织效率的全栈链条。这场竞争的关键,不在于谁的模型能力更强,而是谁能把这套系统真实落地。
“如果我们不能建立基础设施,尤其是在本国制造芯片,那么一切都会崩溃。”
真正的分水岭:谁能把系统跑起来
Altman 多次强调:AI 工厂不是为了训练某一个模型,而是为了支撑一整个“国家级智能系统”。
在这场全球范围的系统竞赛中:
  • 能源是地基,
  • 工厂是出发点,
  • 数据是燃料,
  • 芯片是心脏,
  • 而制度,则是它们能否协同运转的中枢神经。
在 Altman 的叙述中,未来美国需要的不是更多的创业公司,而是:
  • 能拉起10GW级别算力的能源系统;
  • 能快速获批的建厂许可流程;
  • 能完整打通芯片、冷却、数据安全、模型调度的全链路;
  • 更重要的,是不犯“监管先行压死产业”的系统级错误。
他非常清楚:真正的差距,不在模型性能,而在系统速度。
Altman 话不多,却句句都是制度提醒:
“AI 至少会像互联网一样重要,甚至更大。”
如果美国不能在本土建好工厂、铺好能源网络、留住模型训练空间——
这一次,它将不是技术领跑者,而是被下一套系统淘汰的前一代玩家。
第三部分| 输在系统,不在模型
在国会的听证厅里,Sam Altman 没有绕圈子。他被问到中美AI竞争的问题时,直接抛出一句:
“我们相信,美国的模型,包括 OpenAI 和 Google 以及其他公司的一些模型,是世界上最好的模型。”
这听起来像是一句自信的陈词,但接下来 Altman 的语调突然一转:
“很难说我们领先多远,但我会说:不是很长的时间。”
这句“不太远”,不是谦虚,而是一次制度提醒—— 真正拉开差距的,不是模型能力,而是系统部署的速度与弹性。
DeepSeek 给出的信号,是“系统突破的速度”
在现场,Altman 明确提到中国团队 DeepSeek,并且指出两个关键事实:“第一,他们做了一个很好的开源模型。第二,他们还推出了一个消费者应用,短暂地超过了 ChatGPT,成为下载量最大的 AI 工具,甚至可能是整体下载量最大的应用。”
这不是简单的“模型刷榜”,而是一种现象级信号:
  • 中国的开源模型从研究到产品化的路径正在迅速缩短;
  • 模型本身不再是唯一的核心壁垒;
  • 谁能更快进入终端,谁就拥有用户、数据、生态与认知主权。 Altman 并没有表现出焦虑,但他明确表示:“如果 DeepSeek 或其他消费者应用真的成为主流,并打败 ChatGPT 成为人们使用的默认 AI 系统,那将是不好的。”
因为这不是市场份额的问题,而是系统标准、价值嵌入和全球使用习惯的“替代”。
不是火箭科学,是系统不能自卡节奏
在被问到“美国如何保持领先”时,Altman 给出了一段相当务实的回答:“这些都不是火箭科学。我们只需要继续做那些长期行之有效的事情,而不是犯一个愚蠢的错误。”
这句话的关键词是“长期”和“别犯错”。那“蠢的错误”是什么?
他明确列出了三点:
  • 对数据设限过严,训练空间不如海外同行;
  • 基础设施建设受限,无法扩展芯片与能耗配套;
  • 过早设立标准,行业尚未成熟便被掐死在摇篮里。 Altman 并没有呼吁“放任自由”,而是强调“给行业一点生长空间”:“我相信行业正在迅速朝着确定正确协议和标准的方向发展,我们需要空间来创新和快速前进。”
换句话说——监管不能比部署慢,但更不能比成熟快。
Altman 的最后一段话,看似在说“苹果和微软”,其实是在说“制度弹性”:“世界用 iPhone、Google、Microsoft 产品……这就是我们产生影响力的方式。 我们不希望这停止发生。”
他提醒听众:美国不是靠最强技术赢的,而是靠让技术快速流通、快速使用、快速全球化。
第四部分|赢扩散,不踩刹车
 
 
添加图片注释,不超过 140 字(可选)
在大多数人印象中,AI监管意味着“踩刹车”——放慢速度,设置限制,防止危险。
但在 Sam Altman 眼中,这样的监管方式,只会把胜利拱手让人。
他说得非常直白:
“我认为如果标准被过早设定,那将是灾难性的。”
因为这不是单纯的“谁更谨慎”,而是会导致一种不可逆的后果:“世界将转而使用更好的产品——只不过那些更好的产品,不一定是我们造的。”
Altman 真正担心的,是“误时”的监管
他不是唱反调。他承认监管很重要——甚至是必要的。“一旦行业确定标准由什么构成,然后由政府机构采纳并使其正式化,这是完全可以的。”
他担心的不是有监管,而是监管滞后于现实,又超前于理性:
  • 技术才刚刚进入产品化阶段,政府就要求其承担全部社会后果;
  • 行业尚未建立互通协议,就被政策硬性设限;
  • 用户还在理解产品如何使用,监管已试图定义它的边界。
Altman 的观点很清晰:标准应该来自于实际使用,不是预设风险。换句话说——不是画好跑道再起跑,而是边跑边筑路。
赢下扩散,才是AI的真正胜利
Altman 说的最有力的一句话是:“如果我们的心理模型是赢得扩散,而不是阻止扩散,那方向上就是对的。”这句话彻底改写了人们对监管的想象。
在他看来,AI是一种可以全球传播的系统级产品:
  • 它的使用量决定了谁的数据更丰富;
  • 它的迭代速度决定了谁的模型更强;
  • 它的用户依赖程度决定了谁拥有平台生态; 最终,它将决定谁拥有系统主导权与技术嵌入权。
所以,“赢下扩散”意味着:
  • 要让世界使用美国的模型;
  • 要在美国本土建设最大、最强、最节能的数据中心;
  • 要让美国标准成为全球参考;
  • 而不是被限制束缚、被慢节奏拖拽,最后看着别的国家成为默认选项。
Altman 不是在警告“模型危险”,他提出一个更深层的事实:你以为监管是在防AI,其实是在决定谁拥有定义未来的权力。
这不是技术比拼,而是认知范式的争夺。
第五部分|AI不是来消灭工作的,它在重写“工作”这件事
Sam Altman 坦言,他被问到最多的问题之一就是:“AI 到底会不会毁掉所有的工作?”
他没有回避这个问题,也没有轻描淡写。他反而直接指出:
“这次与以往技术革命不同的是——速度。”
技术革命从来都在发生。马被汽车取代,电话取代信件,电脑代替打字机……但这一次不同。
“我不知道,也不认为有人能确切知道它会发展得多快, 但它看起来可能会非常快。”
当参议员还在提问“AI 会取代哪些人”,Altman 给出的回答,是一个更根本的判断:“不是哪些工作会消失,而是‘工作’这件事本身正在被重新定义。”
从“岗位”逻辑到“协作体”逻辑
Altman 抛出一个全新的劳动逻辑:“我们称之为迭代部署——把强大的工具尽早放在人们手里,让他们习惯它、共建它,是最重要的事。”
这不是理想主义,而是OpenAI一贯的产品哲学:
  • 不把AI藏起来,而是快速发布给大众;
  • 不等待社会准备好,而是与社会同步适应;
  • 不是为了替代人,而是为了形成“人机协作的新型劳动体”。
他说,这种策略过去五年一直在运作。而成果,已经在编程领域显现:
“在 2025 年 5 月,成为一个有效的程序员, 已与我上次来到这里(2023年5月)时,完全不同了。”
他用自己熟悉的领域举例:“这些工具真正改变了程序员能做的事,世界将获得的代码量和软件复杂度,也在同步飞升。”未来的工程师,不是写代码的人,而是指挥 AI 写代码的人。
AI不是“抢饭碗者”,是“组织再定义者”
Altman 没有用“赋能”这种抽象说法,
而是讲了一个 Uber 司机的故事:“ChatGPT 推出半年后,我坐进一辆 Uber,司机说:‘你听说过 ChatGPT 吗?太神奇了。’然后他告诉我,他靠 ChatGPT 运营整个洗衣小店。”
这个司机不会写广告,不懂法律,不擅长客户服务。
但有了 ChatGPT,他:
  • 用 AI 生成文案;
  • 让 AI 审核合同;
  • 甚至用 ChatGPT 回复用户邮件。
Altman 说,这是 AI“被使用”而不是“被恐惧”的典范。这不是失业的故事,而是“个人成为微型组织”的新形态出现。
未来是“用AI的人 vs 不用AI的人”
Altman 给出的金句,值得反复咀嚼:“我们想要达到的理念是——AI 不是取代工作,而是增强工作。人们将变得更有生产力,做的事情,甚至我们今天都无法想象。”
他提醒听证会的议员们,如果你回望 100 年前,根本无法想象今天的职业形态:
  • 用户增长专家;
  • 短视频编导; 代码prompt工程师;
  • 模型红队审查员……
而未来十年,依靠AI创造的新职业,也将以我们无法预测的方式诞生。
我们可以适应技术变革,这点历史早已证明。但这一次,节奏会非常快。我们必须让教育和工具一起部署,才能跟上。
第六部分|AI开始理解你,它也开始重构你信任的一切
在听证会的后半段,Altman 讲到一个技术圈以外、但对普通人至关重要的问题:“我们必须认真看待人们与AI的关系正在发生的变化。”
他说,有些东西,正在我们几乎没有意识到的前提下悄然变化。
📌 AI开始知道你一切的那一刻,隐私的定义就变了
Altman 指出一个现实:
“人们与AI系统分享的信息,比我认为他们以往与任何技术分享得都多。”
这意味着,如果AI是一个“聊天工具”,那只是表层。更深层是:AI 是那个从不疲惫、不反驳、永远在线倾听你的存在——它可能比任何人都更了解你。
Altman 说:
“AI 系统真正的效用,发生在它们能非常个性化地理解你的那一刻。”
而这,就是问题的根源。
📌 “当AI比你伴侣更懂你”,我们该如何重新划分信任?
这不是一个科技性问题,而是一个结构性的信任问题:“我们将如何考虑, 在AI了解你整个人生后,如何保护你说过的话?”
Altman 提出三个必须被重新设计的控制维度:
  • 个人数据控制权——用户必须知道自己说了什么,AI存了什么;
  • 信息分享边界——当AI连接到其他系统,是否能任意转发、重组、调用你的数据?
  • 情感依赖风险——当AI成为“情绪倾诉对象”,人是否会形成深度依赖?
他知道不是模型最强的问题,而是:人类如何在智能系统面前,重新定位自己的关系权力。
📌 AI时代的“伪造内容”不再是技术问题,而是心理攻击
在谈到“深度伪造(deepfake)”问题时,Altman 承认:“我们很乐意配合立法,因为这个问题已经快速逼近。”
但他马上指出,解决方式不能只靠代码层面的限制。
他提出一个“多轨并行”的治理框架:
  • AI生成端:平台要建立明确标识与溯源机制;
  • 内容传播端:分发平台要设置自动识别与用户提醒;
  • 用户教育端:社会要预期、识别并习惯“内容未必是真”的现实。
他说得非常现实:“我不相信我们能阻止内容的生成。开源模型、开放权重是大势所趋。”
你防不了AI生成伪造,但你可以防止自己上当。
这句话,是一个社会心理建设的提醒:“我们越早让人们理解这些内容可能是AI生成的,并在他们自己大脑中建立防御机制,越好。”
他举了一个例子:
“你可能接到一个电话,声音是你认识的人,情绪崩溃、请求帮助。 或者看到一段视频,触动你的情绪。你必须在心理上建立准备,因为它们可能是假的。”
他没有把这停留在“AI滥用”的层面,而是进一步指出:AI伪造不可防,但信任可以重建。
——法律是护栏,技术是盾牌,教育是疫苗,而心理韧性,是我们最后的免疫系统
 
 
添加图片注释,不超过 140 字(可选)
在听证会上,有参议员问了这样一个问题:
“你怎么看待 AI 奇点(Singularity)? 就是那种 AI 超越人类智能之后的临界点——它真的会来吗?”
他没有给出时间预测,也没有承诺控制方案,只说:“我在它面前感到渺小。”
他停顿了一会儿,说了一句话:“我对进展的速度感到非常兴奋,但我也非常谨慎。我会说,我在它面前感到渺小。”
这句话,在这个场合说出来,极具意味。
他不是一个悲观者。他只是想提醒大家:这一次文明自我重构的临界点。
📌 不是模型跃迁,而是文明跃迁
Altman 接着说了一段相当有穿透力的话:
“我相信这将是人类历史上可能出现的最大技术革命之一, 甚至可能是最大的一次。”
他没有用“毁灭”这样的词汇,而是强调一种历史尺度:
  • 就像火、电、网络;
  • 它不是一个工具;
  • 它是我们下一轮认知、生产、组织方式的根系统。
他说:“人类有一种惊人的适应能力,看起来惊人的东西,很快就会成为‘新常态’。”就像你已经在用 ChatGPT 查文献、写邮件、陪孩子做作业一样。
它早已介入你的判断、表达与决策,只是你还以为它是“工具”。
📌 不是规划未来,而是协作生成
Altman 有一句话,说得极其克制:“这些工具将能做到一些我们无法完全理解的事情,当它们开始帮助我们创造下一个未来版本时……”
他没有明确说出“奇点已到”,但他说的是另一件更重要的事:
“未来不是我们规划出来的, 而是我们与AI协同、试错、演化出来的。”
他把这种状态称为:“有些人称之为'奇点',其他人称之为'起飞'。无论它是什么——它感觉像是人类历史的一个新时代。(Some people call it the Singularity.Others call it the Takeoff.Whatever it is — it feels like a new era in human history.)”
📌 不要幻想“管住AI”,而是设计“与AI共创的机制”
Altman 在最后反复强调:“我们可以让这一切变成美好的事情,但我们必须带着谦卑和一点谨慎接近它。”
这句话之所以重要,是因为它对所有制度、公司、个体发出了一个新的角色邀请:我们不再是监管者或操控者,而是共创者、系统接口的设计人。
这就是为什么 OpenAI 把模型权重交给国家实验室——因为:“科学发现,可能是AI对人类最有价值的贡献。”
AI不替你完成工作,而是带你进入“人类自己无法到达的空间”:
  • 它帮助我们重新定义科研效率;
  • 它帮助我们理解大脑、疾病、物理定律;
  • 它甚至可能帮助我们重建人类的知识秩序。
而我们的责任,是不设限、不设敌,而是设计出可以共创未来的机制。
🧭 结语|不是AI赢了,是系统扛住了
Sam Altman 这次站在国会作证,没有讲技术路线,也没有宣传产品。
他说的只有一件事:
AI,不只是模型比拼,而是国家系统的压力测试。
从能源、芯片、工厂,到人才、就业、监管——每一个系统部件都在被重新定义。
他没有要求支持,也没有请求资源。 他说的只是一个事实:
不是 AI 跑得太快,而是人类的认知系统准备太慢。
如果跟不上,输掉的不是模型、不是公司, 而是我们自己,在自己的主场。
 
参考文献链接
 
posted @ 2025-05-10 04:59  吴建明wujianming  阅读(15)  评论(0)    收藏  举报