世界正在进入新的战争时代,人工智能占据了舞台的中心。联合国致命自主武器政府专家组前主席阿曼迪普·辛格·吉尔说,人工智能军备竞赛是一场跨越军事和民用领域的比赛。也是蕴藏数万亿美元价值的新兴市场。 人工智能正在赋予武器智慧,「杀人机器」变得更快、更聪明,每一次军事行动都变得更有效率。然而,人工智能的武器化和军备竞赛,如果不加以控制,则可能会像核能变成核弹一样,威胁世界的稳定与和平。 撰文 | 吕海洋 人类历史上,所有有希望成为武器的科技都会很快应用到战斗实践当中,人工智能也不例外。《每日电讯报》曾在报道中指出,在一战中工业革命的机械能力将工厂生产同杀戮紧密地联系起来。现在世界同样面临新的科技革命,新技术在全球范围大大提高工作效率,同样人类面对涌现出的革命性新技术,诸如人工智能和基因武器,其中任何一种新科技都可能改变现有的力量平衡。 一 AI「战争机器人」 对于普罗大众来说,具有人工智能的「杀人机器人」可能还停留在「终结者」这样的银幕形象中。但在今天的战场上,战争机器人并不具备人形,战争AI大多直接应用在武器中,使武器可以自动寻找目标实施精确打击。 人工智能武器是最常见、最直观的「战争机器人」,包括无人机、无人战车等,它们的工作比科幻片中的人形机器人更加具体,工作内容也更加「专业」。 「Kargu2」无人机由土耳其军火商STM制造,是一款军用四轴飞行器。它和普通的航拍无人机长相无异,只多了具备杀伤力的爆炸装置。 操作无人机的人类「杀手」将目标的坐标加载到无人机系统中,然后发射无人机。无人机就会自己前往预定坐标,通过AI识别「目标」,然后俯冲靠近,在目标的杀伤范围内引爆自己,与目标「同归于尽」。 无人机对目标的「自杀式袭击」过程在军事术语中被称为「开枪和遗忘」。士兵设定好目标,发射无人机之后,就无需对无人机继续监控,可以开始其他工作,准备下一次攻击,抑或是下班休息。 Kargu2无人机 在高加索对纳戈尔诺-卡拉巴赫地区紧张局势中,阿塞拜疆军队使用了以色列生产的另一款无人机「哈洛普」(Harop),进行自杀式爆炸袭击。 操纵者能够在地面遥控无人机,通过传感器从任何角度锁定目标。无人机滞空时间长达6个小时,如果没有发现目标,无人机还会自动返回基地降落。 如果说单个无人机的刺杀任务还不足以使其称之为战争机器人,那么无人机攻击群,则很有可能成为小型AI飞行器在未来战争中的主要攻击模式。早在2016年,美国国防部的一次perdix无人机演习中,就曾经在加利福尼亚上空投掷了103个微型无人机,集群协作的模式,共同进行决策,编队飞行,甚至能自我修复。 无人机群不仅能够执行侦查和刺杀任务,还可以对大型军事目标展开毁灭性的突袭。伦敦国王大学安全学院的专家佩恩(Kenneth Payne)说,「航母是移动缓慢的大型作战平台,虽然航母具有自卫能力,但是试想航母面对一万个快速移动的自杀攻击无人机能如何应付?」 专家警告说,人工智能驱动的系统可能导致人类无法控制的「闪电战」爆发 AI不仅实现了无人化攻击,还大幅提高了武器的反应速度。欧洲外交关系理事会无人机战争专家乌尔里克·弗兰克Ulrike Franke表示,「面对AI的告诉自动攻击,防御方也不得不使用人工智能武器,因为人类无法应对大量、高速的AI攻击。」 而人工智能的高速反应和快速响应,可能会随着AI自主系统的升级,发展到「无人介入」的,AI之间爆发的军事冲突,而这种冲突也可能会因为AI的高速反应,在爆发的一瞬间就结束了。 二 AI作战训练和战术规划系统 就在以色列总理内塔尼亚胡下台前夕,加沙地区刚刚发生了最新一轮的巴以冲突。以色列军方称这次战争将会是人类历史上首次大规模应用人工智能技术的战争。一名来自以色列国防军情报部的高级官员表示:「在过去11天的以巴战争中,人工智能(AI)技术首次成为与敌人作战的关键组成部分和力量倍增器。」 在这轮巴以冲突中,以色列国防军下属的8200部队(情报部队)在加沙地带使用了多种人工智能技术来辅助士兵作战,其系统代号分别包括「炼金术士」、「福音」以及「深度智慧」等。 加沙地区人口稠密,而以军的目标哈马斯大多隐藏在居民区中,他们的火箭发射装置一旦完成发射就会立即隐没,留给以军的可打击时间窗口非常小。 在战斗中,以军利用多年来收集到的该地区数据加上卫星成像、监控探头、通讯信息拦截、情报人员信息等手段获取了大量的战场数据为基础,以此进行综合分析来为前线作战的士兵提供更好的战场态势感知能力。借助AI分析,以军摧毁了685个火箭发射装置。 其中「福音」系统利用人工智能分析技术可以对既得的军事情报进行自主分析并自动生成最为合理的战场指挥建议,指挥人员利用这些建议结合战场实际情况来确定最为合适的打击目标,然后相应的数据被传至前线部队的每一个终端。 「炼金术士」系统则可以计算出战场上的士兵和部队可能受到敌人袭击的概率,并通过单兵携带的通讯装置进行实时预警,而士兵反馈回来的信息也会被重新收集并对下一次袭击做出评估。 「深度智慧」系统能够精确地绘制出加沙地下哈马斯的隧道网络地形图。 地理情报(GEOINT)卫星可以实时侦测出战场上的地形变化,利用这些变化军方能够快速检测出哈马斯火箭弹阵地的位置。 除了实战中的战地情报分析系统,各国军队还针对战争训练,建设了AI模拟训练系统。 2016年,美国研究人员开发了一款名为阿尔法的AI空战模拟机器人,在模拟对战中,AI对抗两名退役的战斗机驾驶员,使用4个模拟喷气战机对抗两架攻击战机,在没有损失的情况下,成功地防守一个海岸线。 由美国研究人员开发的阿尔法系统还在模拟空战中对抗两名退役的战斗机驾驶员,结果人工智能系统取得了胜利。 AI模拟空战也已经深度融入到我军的日常训练中。「AI好比一名数字化的『金头盔』飞行员,善于学习吸收、复盘研究。今天你击败它的高招,明天它就能信手拈来。」中部战区空军航空兵某旅飞行大队长方国语说,起初这个「AI蓝军」并不难打败。然而通过数据复盘,每一次对抗都会成为它增长本领的机会。 三 AI军备竞赛 「人工智能军备竞赛已经开始,我们身处其中,也必须面对。这是世界最强大力量之间争夺霸权的核心现实。」德国外交部长海科·马斯Heiko Maas在德国之声的纪录片《未来战争——以及如何防止它们》中如是说。 美国国家安全委员会(NSCAI)在不久前发布的「最终报告(Final Report)」中,谈到了一种将「算法与算法对立起来的『新战争范式』」。从冷战开始,战争已不再是国与国之间的武力冲突,而是以技术竞赛为基础的国力较量。在可预见的AI武器对战中,很多战斗可能会成为AI与AI 之间的战争。 NSCAI在报告中敦促国会大规模投资「不断创新,超越潜在的对手」。据BBC消息,美国国防部副部长希克斯(Kathleen Hicks)6月8日在华盛顿的一个智库论坛中表示,美国国防部申请了7150亿美元预算,包括为军事技术研发、试验和评估提供1120亿美元经费。她说,这是历年来国防部为该项目申请的最大一笔年度预算。 美国国防部发言人柯比当天在记者会上还说,新的国防预算还包括为旨在对抗中国在亚洲扩张的「太平洋威慑计划」(Pacific Deterrence Initiative)提供51亿美元经费,为美军提供为履行印太地区安全承诺所需的军事能力。 五角大楼负责国防政策的次长科林·卡尔博士(Dr. Colin Kahl)5月底召集国防部政策团队开会时聚焦了中国的挑战。他说,中国是唯一能在经济、技术、政治和军事上对美国形成系统性挑战的国家,正确应对中国的挑战是美国国防部的首要任务。 同时,俄罗斯也一直在先进武器研发方面聚焦人工智能领域。俄罗斯国防部长绍伊古在5月21日表示,俄罗斯已经开发出了携带人工智能的战斗机器人,且已经可以投入实战并完成独立作战。绍伊古说,这些机器人并非仅停在试验阶段,现已开始批量生产。俄罗斯媒体两年前曾报道过,俄罗斯军方计划到2025年时组建机器人作战部队。此前,外媒曾多次报道俄罗斯开发的无人驾驶坦克,并称其已经部署在叙利亚战场中。 今年初,习近平主席签署的中央军委2021年1号命令中,向全军发布开训动员令,强调练兵备战,深化科技强训。强化科技是核心战斗力思想,加强现代科技特别是军事高技术知识学习,加强新装备新力量新领域训练和融入作战体系训练,加强模拟化、网络化、对抗性手段建设,探索「科技+」「网络+」等训练方法,大幅提高训练科技含量。 四 抵制AI武器与管理AI武器 清华大学人工智能国际治理研究院名誉院长傅莹在首届清华AI合作与治理论坛上曾经对人工智能武器化发表评论,她认为,「既然人工智能武器化不可避免,专家们研究的方向是寻找合适的治理路径。大家都认为,人类必须汲取历史教训,例如对核武器的治理共识就发生的太晚,导致人类曾经面临巨大威胁,互联网的治理共识也没能在早期实现。大家希望这次对人工智能,尤其是智能武器的治理,人类能走在技术变革的前面,充分认识其风险,早些达成治理共识。」 傅莹表示,「中美两国乃至国际机构和各国围绕这个话题展开合作至关重要,我们希望也相信这不是一场零和游戏,人工智能最终应使得全人类受益。」 自主型的人工智能武器给战争带来了更多的不确定性,如何保证人工智能判断的正确性?如何保护人工智能不受到敌对势力的干扰?如何保证人工智能不伤害无辜平民?如果人工智能武器落入恐怖分子手中应该如何应对?这些都是在实际操作过程中不可避免的技术问题。 目前国际社会尚没有明确的法律规范自动化武器的使用。根据国际法,在大多数情况下「战争机器人」被认定为独立的作战主体,其背后的操纵者可能会因此脱离法律制裁。例如,美国为大多数武器制造商建立了豁免权。 长期以来,联合国各方专家和组织都在呼吁禁用「战争机器人」。2017年,新南威尔斯大学的托比·沃尔什教授,在墨尔本举行的国际人工智能联合大会上发起了抵制「战争机器人」到运动,来自26个国家(包括中国)在机器人技术和人工智能方面具有影响力的专家(包括马斯克和DeepMind联合创始人Mustafa Suleyman)共同签署了一封公开信,承诺禁用战争机器人,或者在没有「有效的人类控制」情况下禁止使用战争机器人,并呼吁联合国禁止在国际上使用「战争机器人」。 五 后记 从冷兵器到热兵器,人类战争从地区范围的冲突升级到世界规模的大战争。核武器的出现,更是将战争从有限规模的武装战斗,扩大到了对目标无限规模的毁灭性打击,甚至给世界带来了毁灭风险。 然而,与过去几千年战争规模逐渐扩大不同,以人工智能为代表的数字科技正在把战争规模缩小,从大范围的无差别打击,到外科手术式的定点清除,斩首行动。 这其中的根本原因是战争的内涵与本质发生了改变,武力战争逐渐不符合国家利益。战争的目的是迫使弱国屈从于强国,从而实现强国的国家利益最大化。以人工智能为代表的数字科技使国家不再需要大规模战争来达成这种目的, 相对的,国家间的经济战、技术战、舆论战等形式的「战争」,更能达到战争的目的,新形式的「战争」也逐渐替代了「武力」成为国家间竞争与对抗的主战场。 今天的战争不再局限于以前的夺取领土、夺取资源,当前的新型战争——更可能建立在一种影响对方思考、行为的新形式上。比如说,操纵、干预一国大选可能比传统的战争更有效果,且成本也会更低。 除了技术问题和附带伤害等道德问题,人工智能武器还可能会造成社会对战争的「纵容」。当人工智能武器可以完全避免对平民的伤亡,且可以实现无人化打击时,战争的损耗将仅限于经济性,而鲜有人员伤亡。面对人工智能战争,国内民意对战争的限制也会相应减弱,从而拉长消耗巨大的战争周期。 作为新时代「战争」与技术竞争的底层技术,无论是应用在战争还是其他领域,人工智能应该有怎样的行为准则,游戏规则?应该搭建怎样的伦理框架?这些都有待全人类继续思考,提供答案。 来源: 网易 机器之能 https://www.163.com/dy/article/GCKQ38HV0511GV8V.html |