【大纪元2024年05月10日讯】(大纪元专题部记者吴瑞昌报导)AI的开发和应用越来越广泛,但人们也越来越担心AI会抢走他们的工作,甚至AI可能掌控大规模杀伤性武器,给人类带来无法挽回的损失。奥地利官员更是直言,人类正处于AI的“奥本海默时刻”。
美国军备控制、威慑与稳定局(Bureau of Arms Control、Deterrence and Stability)首席副助卿保尔‧迪恩(Paul Dean)在5月初的一次线上简报中宣布,美国、英国、法国都“明确承诺”对于核武器的部署和操控,只能是由人类来决定和掌控,拒绝AI掌控或决定核武的使用权。
他还说,“我们欢迎中国(中共)和俄罗斯作出相似的声明。我认为这是一种极其重要的负责任的行为规范,并且联合国安理会五个常任理事国都有此承诺,会非常受欢迎。”
日本的电脑工程师清原仁(Kiyohara jin)在5月7日对大纪元表示,“AI是基于数据分析的产物,它与人的判断是有很大的区别。人拥有理智、情感和道德约束,但AI没有这些,且数据可能会出错。若让它操控核弹,就跟中共、伊朗等极权国家掌握生化武器一样可怕。”
AI已进入实战阶段
实际上,AI在军事上的运用已经十方广泛,例如拥有自主探测能力的坦克、自动搜寻和攻击目标的无人机、会进行火焰或子弹攻击的机械狗等搭载AI的武器,而它们实际上都已经进入实战阶段。人们担心,这些搭载AI的武器会延伸到杀伤力更强的武器上。
美国加州爱德华兹空军基地在5月5日的中午,测试了一架拥有橘白色外表的F-16战斗机,其名为“X-62A”、“VISTA”(可变飞行模拟器测试飞机)。
美国空军部长弗兰克‧肯德尔(Frank Kendall)专程来到这里观看和体验AI操控的F-16战斗机。该战机由AI进行操控,而里面坐着肯德尔,与另一台由真人操控的F-16战斗机进行了一个多小时的缠斗演练,两者彼此相距不到1,000英尺(约300公尺),不断扭转和盘旋,试图迫使对手陷入无力还击的境地。
演练完毕后,肯德尔表示,相信这个仍在学习的AI,有能力决定是否在战争中发射武器。
VISTA的军事营运商还表示,世界上还没有其它国家拥有这样的AI战机,这种AI首先在模拟器中学习数百万个数据,并在实际飞行中测试其学习到的数据。
不过,一些军备控制专家反对AI过度操控武器,因为他们担忧AI有一天可能在没有人类控制的情况下,自动投掷炸弹或更强大的武器来杀人,因此他们寻求更严格的限制,希望能够达到加强对AI的把关。
红十字国际委员会也警告,目前人们普遍担心将生死攸关的决定权,交给这些AI类型的自主武器,因此国际社会需要采取紧急方案去应对这种情况。
军事评论人士夏洛山5月9日对大纪元表示,“AI控制核武是军事AI化的其中一个问题,虽然目前还没有发生,但依照人类目前开发AI的势头,发生的概率就很高。因此美国和西方希望全球能在AI不控制核武的问题上达成共识。AI在军事上的应用所带来的危害也许是不可逆转的。”
AI成为下一个奥本海默时刻
除了红十字会和一些专家的警告外,上个月底在奥地利举行的维也纳自主武器系统会议上,有更多的专家呼吁各国共同讨论对AI军事化的控制问题。来自100多个国家的文职、军事和技术官员,共同讨论了各自国家对AI军事化的控制。奥地利外交部长亚历山大‧沙伦伯格(Alexander Schallenberg)在会议上直言,“AI是我们这一代的奥本海默时刻。”(奥本海默时刻意指历史的十字路口)
这句话指的是当年美国的理论物理学家奥本海默参与并成功研制出原子弹,这为美国和同盟国带来胜利,因此被称为“原子弹之父”。不过,奥本海默目睹原子弹给日本人带来的灾难,及对地球带来的不可磨灭的伤痕,导致他思考自己帮助发展原子弹的决定是否正确。
沙伦伯格表示,“人类正走在历史的十字路口,自主武器将布满整个世界的战场上。目前无人机、AI相关的机器正布满整个战场,而我们也面临着法律、道德和安全上的问题。”
他说,现在全球急迫地需要在AI领域上做出一致认同的国际规则和规范,以防止AI因错误和极端的偏见出现失控的行为,导致人类灭绝和大量死亡。人们需要确保(武器)是由人类来掌控,而非AI。
清原仁对于沙伦伯格的话表示赞同。他说,“不过,遵守道德才是保证人类不会走向自我毁灭的唯一途径,若道德跟不上武器或科技的发展,就容易使人们迷失,从而忽略安全意识。”
(记者张钟元、王佳宜对本文有贡献)
责任编辑:连书华