【时事军事】AI军事化比杀手机器人更危险

【大纪元2023年12月04日讯】今日社会,武器和军队作用,被赋予比杀戮更深的意义。强大的军力,往往用作威慑,维持世界和平,及人类安全。战争,虽然变得隐蔽,但从未停止。【时事军事】带您到最前面,看清正邪之争的细节和真相。

美中领导人11月15日在旧金山举行的峰会上取得有限的口头认同中,包括同意在人工智能上合作及恢复军事方面的交流。但是这些口头上的承诺远没有大熊猫返回中国那么确定。然而,一些不确定的问题可能对未来有很大的影响。

峰会前就有报导称,这次峰会将宣布一项协议,禁止在包括核武器在内的多个领域使用人工智能。实际上,这次峰会没有达成这方面的协议,但白宫和中共外交部发布的消息提到了美中就人工智能进行谈判的可能性。峰会结束后,拜登在向媒体发表的讲话中解释说,“我们将让我们的专家聚集在一起,讨论与人工智能相关的风险和安全问题。”

美中官员都没有透露哪些专家将参与,或将讨论哪些风险和安全问题。当然,有很多话题值得讨论。这些讨论可能涉及不符合人类价值观的人工智能系统的所谓灾难性风险、日益普遍使用的致命自主武器系统(也有人称其为“杀手机器人”)以及人工智能在决定使用核武、下令核打击和执行核打击方面可能承担的角色。

但是,美中之间达成共识并形成一个有约束力的协议的前景一点也不乐观。可能不会出台条约或禁令的原因是多方面的,但至少有两个关键原因。一个是没有一个共识的简单明了的定义,以区分无害的广泛用于日常生活的人工智能和未来对人类可能构成致命威胁的人工智能。人们认为应用于工业管理、自动机械、系统分析等领域的人工智能,通过对大量数据的处理,推动了现代科技,深刻影响着人类社会。这就引出了第二个原因,它太有用了,以致没人愿意将人工智能排除在军事领域之外,更不愿意因人工智能的缺席而使自己在竞争中处于劣势。

人工智能在民用领域的成功同样可以复制在军事斗争中,实际上它们早就成功地用于军事目的。美国、中共和其它国家正在竞相将这些进步融入各自的军事系统,人工智能领域的军备竞赛已经不可避免地展开。人们担心的是在这一领域的竞争中不要被甩在后面,而不是在人类命运的基础上,负责任地寻找更明智的解决办法。

在所有潜在风险中,人工智能与核武器的结合最令人担忧。人工智能系统是如此聪明、快速,并正在成为人类活动的核心,它对人类未来的严重影响,值得人们花点时间思考,或者至少,让各方阵营的专家放下立场观念讨论这些问题。

美国一直试图通过负责任地讨论人工智能的发展来解决这个问题。美国国务院一直在推动关于军事上负责任地使用和限制人工智能自主权的政治宣言。这既不是禁令,也不是具有法律约束力的条约,而是一套基于人类安全的原则。

美国人的宣言概述了使用人工智能的几项原则,其要点是,在由人工智能管理的武器控制链中,要有一个人类决策者来做出生死攸关的决定。这通常被称为包含人类的指挥和控制环路。其目的是解决与人工智能相关的风险,就是确保自主武器系统不会不分青红皂白地杀人。这个原则适用于从无人机到战车、导弹、飞机、军舰、潜艇等所有武器装备。相比之下,最大的潜在风险是核武器,包括那些搭载核弹头的洲际弹道导弹、轰炸机和潜艇。

这份宣言最初的版本特别指出,对通报和执行有关使用核武器的决定及所有行动,都必须有人类的参与。这段描述在后来的版本中被删除,但维持人类控制的想法一直是美国官员思考这个问题的基础。今年6月,拜登的国家安全顾问杰克‧沙利文呼吁其它拥核国家,承诺维持核武指挥、控制和使用环路的人类决策权。如果真有这样一个严肃讨论问题的机会,这几乎肯定是美中专家必须讨论的问题。

也许没有人想要一台全自动的末日机器。即使是前苏联,在冷战期间投入了无数资源实现其核指挥控制基础设施的自动化,也没能一路走到底。就连莫斯科所谓的“死手”系统,也还是要依赖地下掩体的人类。死手系统是俄罗斯的一个特殊的核武器发射装置。是在假设俄罗斯遭到毁灭性核打击以致没有人可以启动核武器的情况下,自动发射核弹的系统。

人工智能的日益广泛应用使一些人产生了这样的疑问,让人处在控制环路中到底有多大意义,以及是否需要调整核政策,在人类决策权的问题上做出妥协。原因是,人也会做出很多错误的决定。他们认为,真正的危险不是将使用核武的决定权交给人工智能,而是决策者对工智能提供的决策方案的依赖,并影响他们的决策,就像开车时依赖GPS导航一样。

研究表明,开车时依赖导航应用程序的人会逐渐失去自己判断位置和方向的基本技能,如果应用程序出错,人们就可能迷失方向。同样的担忧也适用于人工智能,人类决策者可能过度依赖人工智能提供的建议,其后果可能要严重得多。也就是说,如果人工智能系统产生了一个极具说服力的错误讯息,这种情况下,人类的决策权可能无法成为我们所希望的保障。

美国拥有强大的核力量,各种陆基、海基和空中发射的核导弹,在接到通知几分钟内就可以发射。中共也在模仿这种姿态,建立新的导弹发射井,在轨道上安装新的预警卫星。在冲突爆发的敏感时期,万一核预警系统出现误报,人类决策者可能会信以为真,这才是真正的危险。也就是说,不管控制环路中是否有人类决策,都不能完全回避风险,但这与人类决策权的重要性并不冲突。

无论如何,人类似乎并不能确保在人工智能参与的系统控制中保持永远正确。但绝对不能缺少人类决策环节,同时还要最大限度地减少人类对人工智能的依赖。

实际上,在人工智能参与的武器系统控制环路中设置人类决策者的本意,并不仅仅是为了提高系统本身的安全保证。根本目的是不要把决策权完全交给人工智能,而出现把人类排除在外,人工智能自主全权决策、控制和发展的局面。这就相当于把世界交给人工智能统治,那样人类就危险了。

要避免这样可怕的前景,需要整个人类的努力。中共能否在激烈竞争、极力推动军事现代化,并试图发展地区甚至全球霸权的情况下,与美国和西方达成一个在人工智能发展上有约束力的限制性的条约?前景并不乐观。

无论人们是否喜欢,各国领导人可能都会越来越依赖人工智能。现在已无法禁止人工智能,就像人们无法禁止任何其它科技一样。即使还有一些清醒的美国人或其他人在大声呐喊,人工智能领域无底线、无原则的竞争可能会使人类陷入危险。但是,对峙阵营的竞争还是使一些人正在失去理性。

人们只能希望,不管是中、俄、美等国家的专家学者和研究人员,放下任何政治偏见,在人类认知的基础上讨论人工智能的安全问题。

撰文:夏洛山(《大纪元时报》记者,曾经历过十几年的军队生活,主要从事军队的教学和一些技术管理工作)
制作:时事军事制作组
关注《时事军事-夏洛山》:https://www.ganjing.com/zh-TW/channel/1f6pro4fi585ppZp9ySKkwd0W19f0c

责任编辑:连书华