当 AI 瞄准人类:美伊战争打响第一枪,我们每个人都该清醒了

当 AI 瞄准人类:美伊战争打响第一枪,我们每个人都该清醒了

2026 年 3 月 1 日,《华尔街日报》披露了一条足以载入史册的消息:美国在空袭伊朗时使用了人工智能。

不是概念验证,不是实验室论文,不是"未来畅想"——是真枪实弹的战场。Anthropic 的 Claude 模型接入美军涉密网络,执行情报评估、目标识别和战场模拟;LUCAS 低成本无人攻击系统由 AI 赋能,从地面发射,精准打击伊朗军事目标。

AI 参战了。不是科幻片里的桥段,是此刻正在发生的现实。

我一直在写 AI 如何改变编程、改变工作、改变商业。但当 AI 开始决定谁活谁死的时候,我觉得必须停下来,认真聊聊这件事。


一、战场上到底发生了什么?

让我们先回到事实本身。

1. Claude 上了战场

2025 年夏天,美国国防部首席数字与人工智能办公室(CDAO)向 Anthropic、OpenAI、Google 和 xAI 四家公司各授予了最高 2 亿美元的合同,名义是"开发前沿 AI 能力以应对关键国家安全挑战"。

其中,Anthropic 成为第一家将 AI 模型部署到美军涉密网络的公司。

知情人士证实,包括美国中央司令部在内的全球美军指挥机构,均在使用 Claude 执行以下任务:

  • 情报评估:对海量情报数据进行自动化分析和关联
  • 目标识别:从卫星图像、通信截获等多源数据中锁定高价值军事目标
  • 战场模拟:在打击前推演各种作战方案的效果和代价

换句话说,你每天用来写代码、写文案的那个 Claude,它的"兄弟"正在帮美军决定下一枚导弹落在哪里。

2. LUCAS:用"山寨"伊朗的无人机打伊朗

在代号"史诗狂怒"(Epic Fury)的打击行动中,美国中央司令部首次将 LUCAS 自杀式无人机投入实战。

LUCAS,全称 Low-cost Unmanned Combat Attack System(低成本无人作战攻击系统),由亚利桑那州 SpektreWorks 公司制造。它的设计参考了伊朗"沙赫德-136"无人机——历史的讽刺在于,美国用"山寨"伊朗的技术反过来打了伊朗。

它的三项核心能力值得细看:

  • 低成本:单架造价远低于传统巡航导弹,可大规模消耗而不心疼
  • AI 自主导航:通过星链实现远程控制,同时具备断链后的自主打击能力
  • 蜂群战术:大批量释放,AI 实时协调目标分配,多机协同

2025 年 12 月,LUCAS 在阿拉伯湾"圣巴巴拉"号军舰上完成测试。2026 年初,投入实战。从研发到上战场,不到三个月。这个速度本身就是一种信号。

3. 星链:AI 战争的神经网络

如果说 AI 是大脑,无人机是拳头,那星链就是连接一切的神经系统。

此次美伊冲突中,SpaceX 的星链卫星网络承担了三个关键角色:

  • 通信骨干网:确保各作战单元——从五角大楼到前线无人机——实时协同
  • 远程控制链路:让无人系统在伊朗内陆也能被远程操控,实现"发现即打击"
  • 数据高速公路:情报实时回传,AI 模型在后方完成推理,指令再传回前线

星链 + AI + 无人机,构成了一个完整的智能化作战闭环。 伊朗面对的不是某一款武器,而是一整套信息化降维打击体系。

这是一场不对称战争——不对称的不是兵力,而是时代。


二、这不是第一次,但这次不一样

有人会说,AI 用于军事不是新闻了。没错。但回溯历史,你会发现:之前的一切都是铺垫,这一次才是质变。

从"辅助"到"参与":三十年的演进

  • 海湾战争(1991):美军使用早期计算机辅助系统进行后勤规划和目标分析,但那充其量是"高级计算器",离 AI 还差十万八千里
  • 伊拉克战争(2003):无人机开始大规模使用——"捕食者"飞上天空,但飞行员坐在万里之外的操控室里,每一次开火都需要人类按下按钮
  • 反恐战争(2001-2021):算法悄然渗透进情报分析、通信监控和模式识别。AI 开始在暗处干活,但还不是主角

转折点:以色列在加沙的"预演"

真正让 AI 走到聚光灯下的,是以色列在加沙冲突中部署的两套系统:

  • "福音"(Gospel):实时生成空袭目标建议。以色列军方称,此前人工流程需要数小时的目标筛选,"福音"在几秒内即可完成
  • "薰衣草"(Lavender):更激进——据报道,它可以自动将个人标记为打击目标,人类操作员只需做最后确认

据 NPR 报道,仅加沙冲突前几个月,以色列就打击了超过 22,000 个目标。AI 在其中扮演了核心角色。

但即便如此,以色列的模式本质上仍是"AI 建议,人类审批"。AI 是高效的参谋,不是指挥官。

2026 年美伊战争:从量变到质变

美伊战争中的 AI 应用,和之前有本质区别:

维度 以色列加沙 美伊战争
AI 角色 辅助建议 深度参与全流程
部署范围 单一战区 全球指挥体系
武器系统 传统武器 + AI 选目标 AI 赋能的自主武器
商业公司参与 有限 Anthropic 直接接入涉密网络
从研发到实战 数年积累 不到三个月

如果说加沙是 AI 战争的"概念验证",那美伊战争就是"正式发布"。

质变在于:AI 不再只是"提建议的参谋",它正在成为"做决定的指挥官"。


三、五个不得不面对的灵魂拷问

事实摆完了。接下来的问题更沉重——它们不是技术问题,而是关乎每一个人的命运。

拷问一:AI 应该有权决定谁生谁死吗?

这是一切问题的原点。

当前的官方叙事是"AI 建议,人类决定",听起来很负责。但这句话经不起推敲。

传统战争中,从发现目标到发动攻击可能需要几小时甚至几天。指挥官可以反复权衡、质疑情报、考虑平民风险。而在 AI 战争中,整条杀伤链——侦察、定位、追踪、目标选择、打击引导、效果评估——每一环都由 AI 驱动,决策周期被压缩到分钟级甚至秒级。

当 AI 每秒产生上百个打击建议,人类审批者真的有时间和能力做出有意义的判断吗? 还是说,"人类在回路中"(Human-in-the-loop)不过是一块精心设计的遮羞布?

更深层的问题是:AI 号称精准,但精准的前提是数据和算法本身要正确。以色列在加沙用 AI 选择了超过 22,000 个打击目标,结果平民伤亡创下了历史新高。AI 可以精准打击目标,但谁来保证目标的选择是精准的? 如果输入数据有偏差,AI 不会纠错——它只会更高效地犯错。

联合国讨论致命自主武器系统(LAWS)禁令已经很多年,但各方分歧巨大,进展极其缓慢。

技术上的"可以"和伦理上的"应该"之间,有一道红线。我们正在加速冲过去,甚至来不及低头看一眼。

拷问二:硅谷还能说自己是"中立"的吗?

2018 年,Google 员工集体抗议公司参与 Project Maven(军用 AI 项目),最终逼迫 Google 退出。那一年,硅谷还相信"不作恶"是一条真实的底线。

八年后的今天——

  • Google 的 Gemini 正在为军方服务
  • OpenAI 修改了使用政策,悄悄删除了禁止军事用途的条款
  • Anthropic,这家以"AI 安全"为创始使命的公司,成了第一家将模型部署到美军涉密网络的 AI 厂商

从"不作恶"到"2 亿美元军事合同",硅谷只用了八年。

当 AI 安全公司自己成了军火商,"负责任的 AI"还剩下多少可信度?

拷问三:AI 军备竞赛的终点在哪里?

当一个大国公开将 AI 投入实战,潘多拉的盒子就彻底打开了。连锁反应不难预见:

  • 各军事大国会加速军用 AI 的研发和部署
  • 中小国家会竞相获取 AI 武器能力,以求自保或威慑
  • 非国家行为体也会尝试利用开源 AI 模型,构建自己的"低配版"智能武器

历史提供了一个不太令人安心的参照:核武器的军备竞赛最终靠"相互确保毁灭"(MAD)达成了恐怖平衡。但 AI 武器不同于核武器——它门槛更低、扩散更快、更难追踪、更难管控。

核弹头全球可以数得清,而 AI 模型的权重文件只是一串可以复制粘贴的数字。

拷问四:"零伤亡"是好事还是陷阱?

LUCAS 无人机的参战传递了一个清晰信号:战场上机器越来越多,人越来越少。

一枚巡航导弹要几百万美元,一架 LUCAS 可能只要几万美元。无人化加上廉价化,战争的经济成本在暴跌。而当己方实现零伤亡,阵亡通知书不再送到本国家庭的门前,发动战争的政治成本也在暴跌。

这听起来像好事——谁不希望自己国家的士兵安全?但换个角度想:当战争变得"无痛",发动军事行动的门槛会不会低到危险的程度?

历史上,每次战争技术的飞跃都让人类误以为"下一场战争会更短、更干净"。弓弩没有终结战争,火药没有,坦克没有,核武器也没有。

AI 只会让战争变得更高效,而不是更少。

拷问五:作为普通人,我们能做什么?

面对国家级的军事机器,个人的力量看起来微不足道。但历史也告诉我们:改变从来不是从权力中心开始的。

  1. 保持关注和清醒。 AI 公司的每一份军事合同,都应该在公众视野之内。沉默就是默许。
  2. 支持国际立法。 致命自主武器需要国际规范——就像当年禁止地雷和集束炸弹一样,民间的持续施压最终推动了国际公约的诞生。
  3. 对 AI 公司保持追问。 每一家标榜"负责任"的 AI 公司,都应该回答一个问题:你的红线在哪里?
  4. 理解技术。 这是最根本的一条。只有越来越多的人理解 AI 的能力和边界,话语权才不会被少数人垄断。

四、AI 是一面镜子

写到最后,我想起奥本海默在第一颗原子弹爆炸后说的那句话:

"现在我成了死神,世界的毁灭者。"

这句话的重量不在于它的出处,而在于它揭示了一个永恒的困境:当人类掌握了足以毁灭自身的技术,该怎么办?

AI 不是死神。AI 是一面镜子。

同样的 Claude,可以帮程序员写出优雅的代码,也可以帮军队锁定下一个轰炸目标。同样的无人机技术,可以送快递到你家门口,也可以变成一枚扑向目标的自杀式炸弹。同样的大语言模型,可以陪孩子学英语,也可以部署到涉密网络参与战争。

技术从来不是问题。问题永远是——使用技术的人,做了什么选择。

美伊战争中 AI 的首次大规模实战部署,标志着人类跨过了一个门槛。这个门槛不是技术上的——技术上我们早就准备好了;这个门槛是心理和伦理上的——我们终于真的把 AI 送上了战场,让算法参与了生与死的裁决。

这扇门,一旦打开,就再也关不上了。

我们唯一能做的,是在 AI 越来越强大的同时,确保人类不要越来越怠惰——不要怠于思考,不要怠于追问,不要怠于为技术的使用划定边界。

AI 时代的终极挑战,从来不是让 AI 变得更像人。而是确保人,不要变得像机器一样冷漠。


关注公众号 coft ,一起关注 AI 时代的技术、商业与人文思考。

技术在狂奔,我们不能闭着眼。

posted @ 2026-03-02 14:02  warm3snow  阅读(0)  评论(0)    收藏  举报