人工智能军事化现状及其利弊分析

摘要:本文从人工智能全球治理的角度出发,分析了当前人工智能军事化现状,对机器狗,军用无人机装备,军用无人载具进行了较为详细的分析,指出了杀手机器人与当前人工智能军事化水平的差距。同时对人工智能军事化的促进维护国家安全,与其产生的伦理,军备竞赛,降低战争门槛的利弊做了进一步的分析。

 

关键词:全球治理;人工智能军事化;杀手机器人

 

0 引言

  近几十年来,人们在计算机领域方面的技术开发速度明显加快,当今这个时代某种意义上来说是人工智能的时代,第四次工业革命的概念最早是在2013年的汉诺威工业博览会上提出的,而人工智能正是驱动这股变革浪潮的核心力量[1]。在我们的生活中已经能看到很多人工智能应用的例子,例如,我们已经可以乘坐无人驾驶汽车前往目的地,人脸检测也随处可见,在我们日常生活中使用的各种平台都应用了推荐系统,使得抖音等软件取得巨大的成功,这种快速的技术变革正在影响几乎所有领域,而与之相伴的是人们关于这项技术快速应用带来的国家安全、经济发展、社会伦理方面的挑战的担心[2]。除了上面提到的民用方面的应用,还有军事上的应用,人工智能被看作是掀起新一轮大国兴衰和军事革命的核心技术。这一强大的效果自然引起世界大国对技术主导权的争夺,随之而来的恐怕是难以预料的巨大国际安全风险。

  在各种科幻电影中,人工智能元素出现的非常广泛,而它所扮演的角色也某种意义上反应了人们对于这项技术的看法,终结者系列电影自1984年上映,到目前为止共推出六部续集,在电影中人工智能防御系统"天网"觉醒,它经过自主计算,认为人类没有存在的必要,于是发动核战毁灭了30亿人类,还将强大的智能机器人传送回过去刺杀反抗军领袖,在目前的时代中,我们的人工智能技术也似乎朝着这方面发展,机器人,无人机,监控网络,等技术发展迅速,那么电影中的画面照进显示,终有一天导致人类自食其果呢?在探讨这个问题前我们先了解一下目前人工智能的军事化应用。

1 目前人工智能的军事化应用

  随着AI、机器学习和深度学习的进一步演进,从概念走向商业化,算力,存储,大数据等底层基础快速发展,不仅引发了创新、投资和应用的热潮,也导致了人工智能在军事方面的开发热潮。这种持续的快速进步和发展表明,人工智能正在彻底改变战争的形态,各个国家开发的人工智能系统将成为可能的自动化武器系统[3]

  在本文中讨论的致命性自主武器系统实际上是一种军用机器人,是人工智能军事化应用的终极形态,它可以根据预设的目标,经过自主运算,可以自主决定是否对目标开火,所以也被叫做"杀手机器人"。对这项技术持反对意见的人们认为,致命性自主武器可能被独裁者或恐怖分子利用,但就目前来说,强人工智能尚未实现,我们暂时不必有这样的担忧,但是我们的技术却不断趋于完善,未来会发展如何我们不得而知。

  目前各国都在紧锣密鼓地开发无人武器系统,军事无人化,信息化是大势所趋,不过无人武器并不等于能够自主开火的自主武器,它分为自动化和遥控武器。

  自动化武器系统是能通过编程来实现自主独立的方式来允许的武器系统,不需要外界下达指令也不需要人员操控,他们的行动都是人为预设的。遥控武器是一般由战场外的操作员进行控制的,这样可以避免士兵的伤亡。他们与致命自主武器的区别是,自主武器的人工智能会通过评估分析来给出自己的决策,例如是否攻击目标,而不是按照人类预先设定好的命令。

  事实上,目前的军事化水平已经超过了自动化武器系统阶段,在向着致命性自主武器的发展迈步。自动化武器系统仅仅是根据预设的程序发动无差别打击,而目前应用的人工智能武器系统可以利用计算机视觉对目标分析识别并匹配,针对不同目标采取不同的策略[4]

  下面介绍的机器狗,军用无人机,军用无人载具是目前比较突出的有代表性的军用人工智能武器。

1.1 机器狗

  波士顿动力公司是一家美国的机器人研发公司,与美国军方联系密切,该公司开发的机器人可以像动物一样移动,赋予了机器人在崎岖地形上灵活运动的能力。他们最著名的作品之一是大狗机器人(图1),这是一种四足机器人,可以在复杂的地形中运送货物。

图1.大狗机器人

  我们从公开资料可以查阅得知,波士顿动力的部分资金来源是美国军方资助的,其制造的产品除了用于学术研究,更主要的目的是送往军方进行军事化测试应用,但波士顿动力却在与美军合作的同时声称机器狗不会作为武器,以期降低人们对这项技术的敏感度。

  2021年4月,波士顿动力公司的机器狗Spot(图2)出现在了法国一家军校的军事演习中。而参与演习的士兵对此表示机器人在军事行动发挥了重要的侦察作用,可以降低士兵伤亡率。这不禁让人感到不安,我们离军队装备机器人的时代还有多久呢?

图2.波士顿动力公司的Spot机器人在军队中出现

 

1.2 军用无人机装备

  军用无人机的使用历史悠久,早在二战期间,美国空军就使用无人机作为靶机,距今为止,人工智能在军事中的应用已经有了70多年的时间了。而在新世纪,军用无人机在战场上频繁出现,在阿富汗、叙利亚、利比亚等地的战场上,均有无人机执行任务的身影频繁出现在, 应用潜力不断提升。但相比以前的侦察辅助用途,军用无人机所执行的任务性质发生了根本性的转变,由支援性任务向火力打击等主战任务。本小节将介绍MQ-9死神无人机,与卡古-2型无人机,前者属于遥控武器,而后者属于应用了人工智能的致命性自主武器。

  MQ-9死神无人机应用了人工智能技术,能够远程遥控,自主飞行,是美国空军的主要进攻性打击无人机。它可以在空中实现长时间的滞空、可以探测广阔范围内的环境、以及多模式的可靠通信套件和精确武器——它可以快速地对重要目标在短时间内实现侦察和打击,其无人遥控的特性决定了它极强的机动性。

  死神无人机需要两名操作人员远程操作,一人控制飞行,另一人控制传感器,操作人员可以在地面上的安全地方,这样保证了人员的安全,两名操作员坐在屏幕前,使用操作杆或者鼠标键盘操作(图3),但这种攻击方式使得杀人就像在打游戏一样——只需在屏幕上锁定目标,按下攻击键。在2018年的利比亚,死神无人机因错误情报导致 10 名无辜者死亡,其中包括 7 名儿童。

图3.死神无人机地面控制站

  而使用人工智能技术的自主型无人机也早已投入使用,它可以根据程序,自主开火攻击,而无需人类的控制,土耳其STM公司的卡古-2无人机使用嵌入式机器学习算法开发,它有两种控制模式,自主运行和手动遥控。卡古-2无人机使用了计算机视觉技术对目标进行脸部识别,可以在极大范围内搜寻并锁定特定的目标,并且这款无人机可以单独使用,也可以20架为一组蜂群作战,蜂群可以根据任务与目标的不同调整攻击策略,以实现对目标的精准,快速摧毁。

  与其他的侦察型无人机不同,卡古-2是作为一种杀人武器而设计的,它能够根据机器学习对象分类选择和攻击人类目标。2021年3月,联合国利比亚问题专家小组报告称利比亚可能使用了致命的自主武器系统,土耳其制造的无人机成为历史上第一架独立打击目标的无人机。报告称卡古-2使用人工智能技术发现了活的正在撤退的利比亚国民军士兵目标,并根据数据库中的信息进行自主打击,使一人死亡,无需任何命令即可摧毁它们。

4.图为STM公司宣传片卡古-2无人机自主锁定目标并精准开火的演示

1.3 军用无人载具

  据2021年8月媒体报道,美国陆军正在测试一款新型的远程遥控战斗车辆原型车Ripsaw EV2,用于在战场上最危险的区域与敌人交战,目前该战车正在新泽西州的迪克斯堡进行测试。

  Ripsaw是一款小型无人驾驶自动战斗履带式车辆,配备两人驾驶舱。它可以选择载人,但由于缺乏装甲,因此载人不是其主要用途,它主要用途是由人远程控制,其武器系统,驾驶系统均可远程控制,并且可以实现自主移动。遥控、部分自主的 Ripsaw 可以发挥多种作用,包括坦克杀手、步兵支援车、补给车和救护车。有朝一日可能会在敌方地形上指挥陆军作战编队。

图5.图为Ripsaw型自主战斗履带车

 

2 人工智能评价两极化

  在前面的介绍中,介绍了一部分应用了人工智能的新型武器,但由于篇幅限制,有许多其他的新型无人武器并没有被提到,从上面的介绍中,我们可以看到不仅是民用领域由于人工智能的发展迎来变革,在军事领域也同样如此,但由于人工智能技术的快速发展,由此产生的许多问题并没有得到妥善解决,在民用领域首当其冲的问题是数据隐私和安全问题,在我们日常生活中,我们的隐私无时无刻的在被泄露,摄像头会收集人脸数据,app会收集手机中的各种信息,但我们却没有办法有效监管。而对于军事方面的人工智能应用来说,具有自主开火能力的武器无疑挑战了人类的伦理,冰冷的机器能自主剥夺人民,这是对人类尊严的否定。无人武器降低了了战争的门槛,士兵无需上战场,就可以远程发动打击,这是否意味着军事行动会变得更加频繁了呢?

  一项技术发展的越完善,它能被投入应用的领域就越广泛,它可能被应用于对人类有利的领域,但也可能被用于作恶。无论是为战争而生产制作的人工智能自主武器,还是本意是设计用来帮助人们日常生活的民用人工智能系统,都存在被恶意使用而危害人类的可能。

2.1 人工智能促进维护国家安全

  防御性的自主武器不仅能提高国家的防卫能力,还将提高进攻方的军事成本,从而降低攻击意愿。而且,制造无人武器比维护传统大型武器成本更低,国家领导人可削减军事预算,鼓励减少军备开支,这在一定程度上有助于缓解安全困境。

  人工智能的这些应用对国家安全具有革命性的影响。美国国家人工智能安全委员会 (NSCAI)表示,人工智能正在"改变世界",并预测人工智能技术"将成为利用它们的公司和国家的巨大力量源泉"。人工智能有可能成为一种变革性的国家安全技术——与核武器同一等级的——因为人工智能会推动军事发展成为现代信息化的作战,相比于人类而言,无论是从人工智能获取信息的速度,还是做出决策时综合考虑的因素做出的推演结果,都是人力所不能及的。

2.2 人工智能带来的威胁

    2.2.1 伦理

  技术的进步允许武器系统自主选择和攻击目标。 这意味着在使用武力时,我们对人工智能自主选择目标及开火的原因并不了解。对于机器来说,它不把我们看作人,人在系统中只是一个符号,经过分析行为模式,模式匹配被分类,人被简化成了数据点,机器根据分析的结果决定是否剥夺人类的生命。

  机器不把我们看作人,只是另一段需要处理和排序的代码。 从智能家居到警察执法使用机器狗,人工智能技术和自动化决策现在在我们的生活中发挥着重要作用。 在自动化范围的最末端是杀手机器人。

    2.2.2 人工智能军备竞赛

  中国《新一代人工智能发展规划》提出了"三步走"战略目标:到2030年实现世界领先的人工智能水平,而美国表示中国三步走战略挑战美国技术霸权地位,威胁美国国家安全,经济优势和知识产权。美国提出《国家人工智能研究和美国发展战略计划》,目的是维持美国在人工智能方面的领导地位,持续加强对人工智能研究方面的资金投入,此外,欧盟,日本等也纷纷提出了自己的发展目标。

  引发激烈的军备竞赛会增加意外发生的可能。此外,各个国家在人工智能这个领域争先恐后,企图优先取得技术突破,这就意味这各国可能就此开展技术封锁,制止人才流动等不利于全球化方面的措施。就人工智能军事化来说,各个国家应该采取军事克制态度。避免由此引发激烈的军备竞赛和意外发生的可能。人工智能竞赛也引发了各界人士对技术安全和供应链稳定性的担忧。美国对华脱钩不利于其技术创新和供应链稳定。还有研究从人工智能的技术特性出发,推演其军事应用可能改变攻防均衡,造成冲击战略稳定的恶果,并且认为中美应该加强制度合作。

    2.2.3 降低战争门槛

  使用传统大型武器进行军事威慑不仅要花费巨资进行维修和保养,还会面临国际裁军以及国内民意的双重压力。无人武器则为国家提供了一种更有效率的军事选择。比如,国家可以利用无人机进行军事介入解决争端而非外交谈判。这将导致战争门槛降低,国家间战略互疑上升[5]

  一项关于使用无人机的调查研究显示,相对于动用作战人员进行军事行动, 民众更加支持政府在危险地区部署无人机或者用它介入军事冲突。因为使用无人武器装备可以避免作战人员暴露在战火之下,从而降低人员受伤的可能和战争成本。这样一来当决策者决定使用武力时,使用无人机等设备会降低民众反对的可能。

  激烈的军备竞赛将最终弱化人类在战争中的角色作用。在从侦察到分析到开火的环节中,其中决策的时间将越来越短。人类将越发难以适应快速的战场,从而成最脆弱的一点。在集群武器攻击中,人类操作员控制每一个进攻武器显然是不现实的。所以它们将会由人工智能操纵完成特殊任务。人类的控制只会在作战中的高层环节作为总体战术规划,但是在决策层面被不断弱化,最终人类会把越来越多的决定权让渡给机器。

3 总结

  综上所述,当前人工智能军事化应用已经取得了跨越式进展 ,研究成果正在投入实战,但大部分技术还在测试中。但人工智能军事化技术在发挥促进维护国家安全的作用同时,也带来了伦理问题,各国开展人工智能军备竞赛的问题以及降低战争门槛问题。

 

 

 

参考文献

[1]王喜文.工业4.0:智能工业[J].物联网技术, 2013, 3(12): 3-4, 6.

[2]邹蕾,张先锋.人工智能及其发展应用[J].信息网络安全, 2012, 134(2): 11-13.

[3]蔡亚梅.人工智能在军事领域中的应用及其发展[J].智能物联技术, 2018, 1(3): 41-48.

[4]张涛,李清,张长水,等.智能无人自主系统的发展趋势[J].无人系统技术, 2018, 1(1): 11-22.

[5]陈琪,朱荣生.为何担心人工智能冲击国际安全[J].人民论坛, 2020, 662(8): 124-127.

posted @ 2022-06-18 18:21  iAllez  阅读(75)  评论(0编辑  收藏  举报