【大纪元2023年12月22日讯】 人类创造了机器,但人类从创造机器的第一天就开始害怕和恐惧这个机器。当然最大的恐惧是机器越来越发达,会不会有一天反过来控制人类甚至奴役人类、屠杀人类呢?随着西方世界的整个工业化进程,在人工智能AI越来越发达的今天,尤其是AI武器化的大国竞争之下,这种恐惧已经从原来的杞人忧天变得越来越现实,机器超越人类的这个奇异点是否即将到来?或者是否已经到来了呢?
四法则有逻辑陷阱 AI武器化逼近奇异点
独立电视制片人李军在新唐人《菁英论坛》节目中表示,谈到AI的未来,我是非常悲观的。我记得那时候有一部电影,就是《黑客帝国》,我看了不下十遍,因为这部电影引起了我对整个人类科技的一种反思。就是一开始总觉得科技发展是好事,但是如果按照《黑客帝国》电影所描述的场景, AI控制的智能机器和人类发生了战争,最后人类战败了,只有极少部分人逃到了地下城市锡安来维持人类的生存。而大部分人类成为AI创造的一个虚拟现实的电池。这部电影实际是讲了一个逻辑,就是人类科学是在朝这个方向走,所以我当时看了之后非常震惊。因为我是个有神论者,我相信这是神对人的警告,警示人类,如果按照现在这种科技发展下去,有可能最后有一天人类真的会成为机器人的一块电池。我相信在西方国家,很多人看了这个影片之后也有这种概念,所以今天大家会看到社会上有很多人是反对AI高速发展的。他们认为要去控制AI,要去规划它、监管它。
但是现在AI产业被认为是人类下一个最有前景的产业,当人的欲望被控制的时候,他那种理性的东西已经失控了,所以很多人已经在这个领域不断去研究一些突破底线的东西。
今年后半年以来,中国两个AI顶尖人物死了。一个是7月1日,中共AI军事推演的顶尖专家冯旸赫突然出车祸死亡。现在到了年底了,中国商汤科技的创始人汤晓鸥12月15日在睡梦中离奇的去世了。汤晓鸥这个人很特别,他是中国人脸识别AI系统的一个顶尖人才,而且商汤科技还聚集了中国AI方面的大量人才,商汤科技是一个军工复合体,汤晓鸥也是军方的人。
大纪元资深编辑与主笔石山在《菁英论坛》表示,我们现在看到的这种AI,业界叫做ANI(Artificial Narrow Intelligence),中文翻译过来叫弱AI或者弱的人工智能。也就是说人类指定一个任务,它可以比人类完成的好,人类不指定的任务,它是不会去自动拓展的。然后就是AGI就是Artificial General Intelligence,通用人工智能,就有点像是强AI了。强AI的意思就是说,你给它设定一个基本的东西,它就能跟人做的差不多了,它也可以自己学习收集资料,任何领域,你只要给它提一个问题,它自己去学习,就能跟你做的差不多了。现在的chatGPT就往这个方向在走。
但是未来还有一种AI,这是更恐惧的,叫做ASI,就是超级AI了,超级人工智能,它的定义是什么呢?它可以自己设计它的底层逻辑,这个时候恐怕人类就控制不住了。所以我们在谈AI到底能走到哪一步的时候,大家知道这三个阶段,我们可能要谈到是AGI和ASI这个部分,到了这个部分,我们还能不能控制机器?到底是谁在控制谁?
石山说,我记得上世纪五十年代的时候,美国非常有名的科普作家阿西莫夫在写书的时候,他写了机器人三法则。第一法则是机器人不得伤害人类或坐视人类受到伤害。第二法则是机器人必须服从人类的命令,除非命令与第一法则发生冲突。第三个法则是在不违背第一或第二法则之下,机器人可以保护自己。后来他发现这里面还有漏洞,他又加了一个第零法则,所以就变成了阿西莫夫的四法则了,他加了个第零法则,机器人不得伤害整体人类,或坐视整体人类受到伤害,这个是第零法则。然后才是第一法则,除非违反第零法则,否则机器人不得伤害人类或坐视人类受的伤害。他把个体人类放在整体人类之下了,这个时候就发生变化了,你怎么衡量整体人类受到伤害?如果AI判断整体人类可能受到伤害,它就可以伤害个体人类了,这里面的逻辑陷阱是越填反而越大了,所以这里面就非常可怕。所以人工智能开发全人类一直都是小心翼翼,担心会不会超越这个所谓的奇异点。
《大纪元时报》总编辑郭君在《菁英论坛》表示,马斯克曾经谈这个奇异点问题,他的第一个观点就是,一旦人工智能用于军事或者武器,就可能超越这个奇异点,因为武器的攻略是伤害人类。那现在人工智能的武器已经开始了,比如说无人的自动武器系统,不管是自动行走的,还是自动飞翔的,只要是自动武器系统,它都有一定的自主决定权,目的就是伤害人类。只不过所有人都希望它去伤害敌人,而不是伤害自己,但是敌人也是人类。所以目前人工智能武器还有一个就是限制,就是说最终决定权是由人来控制,但是这种控制未来是否能够被舍弃掉,最后由机器人自己来决定呢?说实话这是很有可能的。
人类环节将移出AI系统 AI战争迫在眉睫
军事频道主持人夏洛山在《菁英论坛》表示,美国现在急于和中共建立军事方面的沟通。
可能出于两个原因,一个就是在印太地区的紧张对峙态势下,不要发生擦枪走火。另外一个原因就是一个很紧急的问题了,就是人工智能的自主应用。在人工智能应用领域,美国实际上一直是领先的,但现在中共正在缩短这个差距。美国看到人工智能控制的循环系统中放置人类决策这个环节,这样一个涉及人类安全的道德底线,现在实际上是岌岌可危了。因此它要建立一个全球认可的、一个有约束力的限制性条约,这就是美国希望跟中共来沟通来达成的一个东西。我们说这个环节是一个道德底线,因为它涉及到人类的安全问题,但是要坚守、要维持这条底线,那谁维持谁就要付出代价。因为人工智能的自主应用实际是太有用了,太诱人了,特别是在军事上。我们知道战争的关键因素是速度或者说是时间,而人工智能可以在本质上提高这个速度,或者是缩短时间,如果在这样一个环路上加入一个人,那么就会大大降低这个系统的速度,因为人的认知和反应的速度远远赶不上机器。那么也就是说,现在就是谁也不愿意放弃在军事斗争中的竞争优势,去维护这么一个道德底线。
这个境况就很可怕,如果竞争的双方有一方在竞争中不讲武德,偷偷的或者是无底线的使用人工智能,那么这个坚守底线的一方不但会失去竞争优势,而且你继续坚持这个底线也变得毫无意义,因为对手的破防实际上就等于人类安全底线已经被打破了,你这一方就是维持也没有意义了。那么一旦人类从这个环路中撤出来,那么人工智能威胁人类安全的这个奇异点也就到来了。
石山在《菁英论坛》表示,这个前景确实是非常可怕,而且关键的问题不是说这个事情会发现在未来十年二十年,关键的问题是就近在眼前。就是说武器系统的自我应用,AI的自主决策,现在其实已经开始了。比如我们举个例子,以色列的那个铁穹防御系统,它是一个防守系统,但是如果由人类来控制,你的速度根本就不可能完成任务,它必须由一个超级电脑来控制。它虽然只是一个防守系统,还不是一个进攻系统,但是这说明武器的人工智能自主运用已经可以做到。也就是说,下一场战争如果是一场大型的战争,很可能这个问题就突破了。因为只要有一个人用,大家就一起全都开始用。
面临中共威胁 美国AI发展激进派得势
石山在《菁英论坛》表示,最近我看了一篇文章,谈到美国硅谷一些AI新创公司的这些人,他们非常抱怨美国国防部,说你们国防部整天说AI很重要,但是你们的重视都是表面的,实际上国防部的订单给硅谷的很少。就是说美国军方对AI的投入其实是非常不足的。
夏洛山在《菁英论坛》表示,美国实现在每年军费预算要8800多亿美元,远远超出中共三倍多。但是五角大楼就有人认为,很多钱花在了不重要的事情上,而有些极其重要的事情却没有得到应有的重视。2021年五角大楼的一个软件开发负责人叫夏兰(Nicolas Chaillan),他宣布辞职。他的理由就是无法忍受看到中共在人工智能领域超越美国,他的辞职是为了抗议美国军队技术转型太慢。他认为中共在人工智能机器学习和网路能力这方面的进步,正在走向全球主导地位。他认为软件实际上比硬件更重要,比一些先进的战斗机还要重要,他认为就是对人工智能伦理的这种广泛的争论,拖慢了美国的发展速度。而相比之下,中共却在不顾道德的情况下,对人工智能进行大规模投资,那么这种竞争的后果当然是可想而知了,美国就有可能被甩在后面。
最近五角大楼的风向可能有些改变。前不久空军部长肯德尔(Frank Kendall)说,在人工智能参与的武器系统中,如果放入人类决策者这个环节,就会导致输掉战争,因为在如此快速运转的系统里边,人的干预与机器相比简直太慢了,其结果将会导致有人系统的失败。言外之意就是要想赢得战争,现在就是挣脱这个伦理束缚的时候了。像美国空军部长这种能够决定装备发展的重量级人物,已经表达了这种观点,他应该是代表了相当一部分五角大楼官员的想法。
夏洛山说,从道义上说,其实我们很佩服一些美国人对道德底线的一种坚守,但是如果以输掉战争为代价的话,这种做法就有问题了。美国在印太战略中的核心,也是美国的责任,就是维护基于规则的国际秩序,确保美国美国的盟友和伙伴不受侵略,并且在与对手的竞争中取胜,这是一个原则。如果放弃这个原则,去维护一个其它的东西,那么会导致一个对美国非常不利的后果。
新唐人、大纪元推出的新档电视节目《菁英论坛》,是立足于华人世界的高端电视论坛,该节目将汇集全球各界菁英,聚焦热点议题,剖析天下大势,为观众提供有关社会时事和历史真相的深度观察。
本期《菁英论坛》全部内容,敬请线上收看。
——《菁英论坛》制作组
责任编辑:李昊