【大纪元2024年01月11日讯】大家好,欢迎收看周三(1月10日)的《新闻大家谈》,我是扶摇。
今日焦点:“台湾大选”有人布阴险雷区!杜奕瑾:网上“喷子”背景不一般,台湾人要注意!五大最新招数,让你没反应过来就被骗。
台湾总统大选,已进入最后的倒数计时。外界在关注各候选人全力冲刺的同时,也聚焦中共当局大肆介选的动作。
1月4日,美国国家安全委员会发言人约翰‧柯比(John Kirby)不点名警告中共:不要干预台湾选举,并表示“我们将尽可能密切地关注此事”。
台湾基进创党主席陈奕齐近期接受《大纪元时报》专访时形容,对岸的渗透如同“白蚁侵蚀一般”,手段非常细致,最终目标是要“全面掌控台湾”。
那么,具体手段有哪些呢?
我们看到,共军最近屡屡派出战机、军舰与间谍气球在台海周边活动,营造紧张局势,给台湾选民施压。而除了传统的文攻武吓外,中共也利用AI技术,结合网络社群媒体,如PTT、抖音、小红书、YouTube等,对台湾选民发动“认知战”。这些手法更隐晦,让许多人在不知不觉中放松戒备,并因此影响投票意愿。
这个计划是怎么一步步实施的?台湾的选民朋友,您会不会已经中招?在接近1月13日大选投票的关键时刻,我们邀请到台湾人工智慧实验室(Taiwan AI Labs)创办人杜奕瑾先生,为您拨开迷雾。
【利用生成式科技 “喷子账号”散播假信息】
扶摇:杜先生您好,首先可不可以请您和大家科普一下,中共介选它利用AI做了什么样的事情?
杜奕瑾:其实大家知道,现在中国、俄罗斯这种比较集权的国家,他们都是有利用西方的社交媒体,去做一些他们外宣宣导,或者影响当地民主过程的一些讯息,我们叫做Cognitive Warfare(认知战)。
其实透过我们人工智慧实验室(AI Lab)的观察可以看到,今年在生成式科技已经变得非常成熟的情况下,这个Cognitive Warfare被做得更自然。
大家可能知道,像在美国这边,最近有五角大厦被炸的这种生成式照片,造成股票下跌。其实在乌俄战争我们看到,比如说泽连斯基他发表假的演说,这个都是我们过去在讲的deepfake(深伪)的技术。
那除了deepfake的技术之外,现在我们在网络上看到非常多的troll account(喷子账号)。所谓的troll account,就是说它们并不是真的人,它是透过程式或者大量被控制的账号,去发布一些消息。这些troll account发布的消息,有点像一个口令一个动作在宣导,去攻击民主阵营相关的言论以及想法。
以这个生成式科技来讲,去年年初ChatGPT刚发布的时候,大家知道这种大型的语言模型已经可以大量应用在各种生成式的技术,让它说话说得头头是道、引经据典。但现在的生成式科技我们可以看得到,已经应用在虚假消息的散播或者是误导消息的散播。
【与中共官媒关联 “协同账号”在台湾网络带风向】
扶摇:好,谢谢。您观察AI在社交媒体方面的渗透程度如何?
杜奕瑾:其实以目前来讲,我们发现,社交媒体上面在讯息战的渗透是非常非常严重。比如说像乌俄战争,俄罗斯入侵乌克兰之前,我们在看到Twitter(先X平台)大概有10%的账号,只要讲到乌克兰,它其实是被亲俄的喷子账号群操作。
同样的在台湾,几个比较主流的社交媒体平台,比如说我自己本身是PTT的创办人,PTT,Twitter,Facebook,还有LINE,其实你都可以看得到有非常多的这些账号,我们把它叫做“协同账号”。我们如果去detect(检测),它们会共进共出,在某些议题它们会同时出现,发表评论之后,在另外一个议题会消失。
台湾人工智慧实验室就用大型语言模型去训练,可以知道每个账号它每天的行动,之后我们就可以知道,哪些账号跟一般的使用者比较起来是不正常的。分析出来之后,我们会发现其实它们是在follow(追踪),它们会follow一个又一个的议题,然后去攻击台湾年轻人的想法。
比如说在大选之前的好几个月,这些账号它们就在不断宣导,说总统大选如果选某一个候选人,就会给台湾带来战争,它也会讲说中国是和平的使者,或者是说美国会给台湾带来战争。
在靠近总统大选的时候,这些账号就会转而攻击比较多民生的议题。所谓的民生议题就是像“鸡蛋事件”,它会讲台湾买不到鸡蛋;或者是前一阵子教育部课纲的问题,它就会讲现在的课纲是去中国化;或者前几周就在操作ECFA(海峡两岸经济合作框架协议)的议题,说没有ECFA的话台湾经济会很差。你可以看到农产品或者石化相关的议题,就会在网络上发酵。
其实你仔细去看这些行动账号的行为,就会发现它跟(中共)官方媒体是有连动的关系。也就是说,其实它是会跟着一个、有点像有个commander(指挥官),大概每个月会有一些主打的议题,那些账号就会跟着在网络上去做散播。
甚至我们也有发现,这些行动账号试着要去影响台湾候选人的合作。比如说在蓝白合议题之前,这些行动账号主要同时攻击国民党跟民进党。就是想办法去demote(降级)台湾自己政党推荐的候选人,而促使某一个政党跟他们比较喜欢的候选人去合作。但是蓝白合破局之后,我们可以看到有协同团体开始散播类似“弃柯保侯”相关的言论。
所以其实蛮有趣的,我们可以看到几个被控制的协同团体的账号,可以影响到候选人的倾向,以及一般民众的想法倾向。
【境外假信息密集轰炸 台湾民众需更警惕】
扶摇:您提到的这些操作在台湾的网络上目前有多普遍?是不是有一些相关的数据可以参照呢?
杜奕瑾:我们相关的报告都放在Infodemic的网页上面。Infodemic就是pandemic(大流行)前面的这个pan改成info,就是infodemic。Infodemic里面有一个report(报告)的页面,我们有把每个月,甚至在选举之前week by week(每一周)的观察报告,秀出来给大家看。像刚才讲的蓝白合的议题,我们都是有相关的数据报告。
讲到的这些分析报告,其实是有数十亿的留言,我们去透过分析这数十亿留言的使用者的行为,得出来结果。
扶摇:您认为中共利用AI影响台湾民意的目的,有达到吗?
杜奕瑾:我觉得可能不见得只是中共,我们讲的就是境外的影响力,包含中国、俄罗斯,其实我们都有看到在影响。那这个影响是不是有效?我觉得以人工智慧实验室这边的观察来讲的话,这个影响力是非常强大的。
台湾在全球已经算是对认知操作比较有awareness(意识),就是说大家会知道有这件事情。即使是这样子,有非常多的民众还是会被相关的消息误导,尤其是像比较封闭型的社群,像LINE的社群,有很多比如说校友会、或者是公寓大楼的管理群、管委会或什么,我们都可以看到有一些奇怪的账号渗透进来,然后不断去发表相关的议题跟言论。
非常多的人,如果他平常没有透过比较主流、可信任的媒体报导,知道有认知操作这种事情的话,他就很容易被这种社交媒体里面的讯息引导。我们可以注意到,现在连非常有知识的年轻人,或者大家觉得非常聪明的人,都会被这个讯息去误导。
现在讯息战的这种力量,透过引经据典来铺陈,以及很多透过假装中立的YouTuber短影音方式,比之前只是纯粹贴文字的手法更有说服力。
扶摇:台湾的民众是会比较容易放松警惕,更容易中招吗?
杜奕瑾:我觉得其实台湾的民众相对于全世界已经算是很有意识了,但是现在这种讯息战的程度……因为台湾在全世界算是言论最自由的地方。你在台湾散播虚假讯息,大部分时候都不会受到惩罚。另外,台湾其实应该也是foreign government distribution of false information(外国政府散布虚假信息)第一名的地方。
如果说国际上有大量的资金去做讯息操作散播,台湾在亚洲算是一个重点散播的地方。我们的这种人工智慧的方式,可以看到每天都有上百个议题正在交战。你说为什么台湾的民众容易中招?应该是说,因为这种讯息的散播程度在台湾非常高,所以很容易人会被影响。
我可以举个例子,就像我们现在看到在Facebook上有两个协同群体,在政党候选人粉丝页下面,留言比例非常高。也就是说,你可以看到只要有人控制两个网络的troll account group(喷子群),它就可以影响到台湾主要总统候选人下面留言的倾向。
比如现任总统蔡英文粉丝页下面的留言,每三篇留言大概就有一篇留言是这两个喷子群的其中一个发出来。也就是说它的密度非常高,所以你很容易就会受到这个风向的影响,影响到你自由的选择。
【利用AI“侦破”网军操作 护航选举安全】
扶摇:是。那有没有哪些反渗透措施,是值得台湾乃至其它国家学习和借鉴的?
杜奕瑾:我觉得台湾其实公民的力量是还蛮多的,就像比如台湾在全世界是最早在华文做事实查核的。但是事实查核我们在现在这个阶段,我们觉得比较来不及去解决这件事情。
所以后来像CoreFact就是开始做比较多中心的视察,就是crowdsourcing(众包)的fact checking(事实审查)。但即使是crowdsourcing的fact checking也会来不及,所以我们AI Lab才去做了Infodemic,我们去成立一个人工智慧的大型语言模型,不断去monitor(监视)网络上的言论以及行为,所以我们就可以知道有哪些网军账号正在进行操作。
那藉由这个,我们把这种行为模式公开,比如说在选举之前,我们开放主流媒体,以及各个研究人员使用我们的人工智慧工具,去了解现在怎么样的讯息在被操作,让大家知道我们怎么样的讯息被操作之后,大家可以把自己的发现共同分享出来,透过我们这个Infodemic和民营的APP去宣导,那民众看到类似的操作手法,他就会知道这其实有可能是极权国家的宣传模式,它并不是一个真实的民意。
这样子就可以防止台湾的key decision maker(关键决策者)、媒体、民众被这些讯息操作所误导。
我想这种模式在全世界算是非常新颖的,其实也是这次为什么有很多在研究election security(选举安全)的国际学者会邀请我们一起来做分享。这也是这一趟到华盛顿跟这边的相关研究学者做交流的主要原因。
【五大新招数 升级认知作战】
扶摇:好,谢谢。您刚才提到,您通过一些言论可以观察到这背后是有定向操作的。目前的认知作战,比以往严重多少?像抖音这种短视频平台的发展,是不是也是更是把这认知战向前推了一步?
杜奕瑾:对,今年我们可以看到有几个很重要的、跟过去不一样的地方。
第一个就是生成式科技被大量应用。生成式科技我们过去以为只是图片,现在是图片、影片、文字都有被使用。
第二件事情就是,过去大家看讯息操作,主要是文字的讯息操作,今年主要是短影音搭配文字。也就是说,网络上有很多的操作,它并不是直接用文字把它的主观立场植入,而是藉由引述,或者是诱导使用者去阅读某个短影音,从而被影响。
第三个,过去的操作它比较在社群平台上面公开去宣传,但今年的操作它会诱导使用者,藉由他的投资的兴趣、藉由他的比如说环保的兴趣,把这些使用者拉到私人群组之后,再不断去喂食他有误导性的议题。
也就是说其实它的手法跟过去比起来更复杂,而且更成熟,一般的使用者就比较不容易察觉。
我们再看到这个账号的分工,跟过去比起来也更明细了,账号会分为比如说专门负责造谣的,也有专门负责传播的,也有假中立者。因为造谣的账号很容易被平台察觉跟删除,所以就会有假中立者,他会把相关的内容截图之后,留在社交媒体,然后再藉由传播者把它传出去。
那另外一个就是我们刚讲的短影音平台,今年你可以注意到,YouTube跟TikTok在操作部分比去年影响力更大,而且有大量的短影音在传播。
如果说特别去看抖音平台,抖音在一开始就有非常强的偏见。它在国家的评介上,比如说提到哪个国家就都是好的,中国全部都是好的,那只要是日本、美国、台湾,它就会有很大的……都是往负面去倾斜。
同样的,像提到台湾的总统候选人,原本是四组总统候选人,它的声量就有非常不对称,对这四个总统候选人的preference(偏好)也非常清楚。就我刚才讲的,它只要是提到国民党跟民进党的候选人,它打击的力量相对大,而且它的声量是比较小。那它提到比如说TPP(台湾民众党)的候选人,它的声量就非常大。
那我们可以去透过大量的人工智慧的观察,知道它怎么去运作、去影响到人的认知。
扶摇:哦。那像中共一直在定向推播假讯息,AI会不会在这种干扰之下,形成自己的思维模式,然后以后输出的信息都是带有偏向性的呢?
杜奕瑾:人工智慧当然是会把人的偏见学习起来,也就是说如果你资料是有偏见、你标注的方式是有偏见,你训练出来的结果就是会有偏见。这也就是为什么中国在第一时间就把比如说ChatGPT屏蔽掉。因为ChatGPT主要的资料,90%都是美国这边收集的,那就代表说它的内容的倾向跟思维比较符合美国这边的社会文化跟利益。
那同样的,如果今天我们训练人工智慧,我们大型语言模型这个资料是中国这边去训练的,相对来讲它里面学习到的回答方式,肯定会把中国相关的立场跟偏见也都学习起来。
这也就是为什么,我们特别在去针对台湾,尤其在中文的领域,我们针对繁体中文的部分在训练自己的大型语言模型,这样可以确保我们的立场会符合台湾的社会标准。
【生成式科技发展 “人类文明在往下走”】
扶摇:是,所以AI水军对台湾大选已经产生了影响。
杜奕瑾:我觉得其实它一直都有在影响。我们可以看到从乌俄战争,在推特上面的这种操作;佩洛西来台湾的时候,大概每四个言论就有一个言论是从水军传播出来,在台湾的这个言论;再来我们刚才讲到这次总统大选,在总统的粉丝页留言,每三个留言有一个就是水军出来的。
这种模式我觉得已经变成一个……我们过去会觉得说网络上是大家的民意,但是大家可能要认知到一件事情,就是在网络上大部分的言论很有可能都是被操作的账号产生出来的。
生成式科技今年的发展,我们大概也可以预见到,人类的文明其实在往下走,未来可能生成的内容会比人自己原创的内容还多,这就是必然的走向。那也就是说,大家未来在获得讯息时,一定要有一些方法去了解这个讯息有没有被控制,这样去协助你要不要相信这个讯息的来源。
所以你问我说是不是会被影响?从我的角度已经在影响,而且已经在全世界有很重大的影响。就比如说像“剑桥分析事件”,那是2019年在英国有一个Cambridge Analytica这家公司,它操作全世界200多场选举,包含美国总统大选、英国脱欧、台湾2018年的选举,其实它都是有很直接的影响。
这个以前是在做精准行销,但是后来把它变成为政治服务,也就变认知操作,是非常的成功的。一旦这个东西非常成功,大家没有注意到的是,这些平台都是国际化的,也就是说不是只有境内自己政党之间可以运用这些技术去操作民众的想法跟言论,境外也是可以操作民主国家境内的想法跟言论。
尤其是像台湾这种比较小的国家,透过境外去操作,相对来讲它的门槛比较低,而且台湾的言论的障碍比较小,民众又很容易去接受各种国际社交媒体,受到的侵害也是蛮大的。
【干预美国大选 中俄早已动手?】
扶摇:是的。想再请问一下,您那边观察中共除了对台湾大选,现在对于美国大选是否也已经开始用AI干预了呢?
杜奕瑾:其实观察对美国大选的操作,我们在看推特跟Facebook这两个平台的协同账号已经有非常多。而且我们也有看到,这些协同账号是会跟着中国跟俄罗斯的议题去做连动。也就是说中国跟俄罗斯有哪些议题,它其实就会在美国这边利用这些账号去做放大。
至于这些账号是不是就跟中国跟俄罗斯有关,因为现在AI Lab我们比较没有在观察美国这边的事件,所以我们也无从知道。但是如果说是往下去探究,我觉得这个应该是蛮有趣可以去看的。
如果说是以台湾为例的话,台湾社交媒体PTT因为它是开放透明的,因为那是我之前创立的。我们透过PTT,可以看得到有很多协同账号在操作台湾的总统大选。PTT它的IP是会显示出来,我们去探究这些IP,虽然它显示是从台湾来的,去追踪我们发现,这些账号其实是利用台湾VPN的Router(路由)。你再往下去探究,会发现这些Router的设备很多都是中国制的。
另外,台湾今年也有一个“鸡蛋事件”,我们可以看到连续三周的协同团体操作。这三周协同团体操作大概一百多个议题,就可以造成台湾农业部长下台。
从这个操作模式我们可以看得到,(中共)官媒主打的议题跟协同团体发表的议题有连动的关系。官媒这边提到比如说鸡蛋缺少,那台湾的协同团体就会讲;官媒讲到补助有问题,那台湾的协同团体也会发表同样的攻击方法。
【如何守护AI伦理 对抗信息操控?】
扶摇:好,谢谢。我听您以前讲过,人才是创新的核心。而没有创新的中共,常常盗窃知识产权、百般“山寨”。您如何看中共在网络水军方面的投入?这方面的过量研究和投入,是不是也会同样阻碍科技创新?
杜奕瑾:我其实觉得应该是说,每个国家都是会有很多科技发展的经费,但是科技至于是怎么样发展,跟这个国家的投入方向是有关的。比如说,美国就是透过大科技公司去发展人工智慧。大科技公司发展人工智慧也会有它的盲点,像以人为本、保障人权隐私,怎么去做到科技伦理?其实赚钱不是唯一的目的。我们现在看到西方的社交媒体,为什么可以被利用来作为操作的工具?跟它的business model(商业模式)也是有关系的。
至于在中国,其实中国因为长久以来比较是政府出资的创新为主,很容易以国家利益为考量,所以像social scoring(社会评分)或是surveillance(监控),或者cognitive warfare(认知战),很自然而然在这些方面发展。
这其实也更提醒到我们大家,未来做人工智慧是要做到right respecting(尊重权利),就是保障人权隐私、可信任、负责任,不管是在美国或是在中国,都是要能够坚守到以人为本的这个界线。我觉得这是人类未来的共同挑战,而且需要我们大家一起去努力。
扶摇:我觉得您提到的科技以人为本相当重要。之前有很多消息曝光出来,就是中共会让一些监狱里的在押人员上网,然后翻墙到海外散播一些假的讯息。如果说现在生成式科技,像您刚才提到的,它不可限量地发展下去的话,未来是不是都有可能会替代那些人工?而这方面的工作对于中共来说,或者对于极权国家来说,是不是更容易操作?这会不会让他们未来的海外“维稳”变本加厉?
杜奕瑾:这是必然的。以人工智慧生成式AI去做到大量生产影片或大量生产言论,我们现在看到已经在进行。有可能在未来就像刚才讲的,这种过去需要人在网络上散播言论的这些角色,慢慢地它也会被人工智慧取代,我们已经看到有往这方面的发展。
扶摇:那除了在应对方面,我想问一下对于政府、科企来说,对技术方面的合理管控,您还有没有什么建议?
杜奕瑾:美国白宫最近有开始发表人工智慧的行政命令,还有之前的人工智慧的AI Bill of Rights(AI权利法案),我觉得这个都是科技“以人为本”从总统的高度去做的一些发表。希望未来的大科技公司不是只有赚钱。赚钱之前这些科技伦理该遵守的准则,美国这边也开始在思考。
我们可以看到欧盟这边,之前有数位服务法、数位市场法,现在有AIEd(AI教育)。其实大家已经开始往这方面去思考,就是怎么把人摆放回技术的本位。
现在全世界都在重视,也是应该要重视的。
另外一方面,因为这些立法需要时间才会慢慢成熟,所以立法在进行的同时,我们要去支持立法的有效,一定要先能够衡量人工智慧的影响到底是什么。
现在台湾人工智慧实验室我们建立了Infodemic这个平台,就是要让全世界的民主国家不管是学者、媒体业者,以及政策的决策者,可以藉由我们开放的平台跟研究方式,知道人工智慧对讯息的操作、对民主国家的危害,怎么去衡量。
很多极权国家可以利用人工智慧去做攻击,那我们可以反过来利用人工智慧去做衡量,并把这个标准定出来。
扶摇:感觉也是一项非常繁杂的一项工程。那您觉得心理学研究是不是也应该开设一个课题,去讨论网络水军对于选民的一些影响?
杜奕瑾:我还记得,我们刚开始做互联网的时候,大家在讲到网络要怎么去做精准行销。所谓的精准行销,就是你比如说不同地方看到同一个商品,看到七次之后你就会想买它,这个叫做精准行销。你要知道使用者想要什么,适时的给他这个商品的资讯。
其实所谓的认知作战,就是精准行销用来做政治服务。也就是说,当平台知道你喜欢什么、讨厌什么,比如说你是喜欢动物,很讨厌这个虐待动物的人,所谓的认知作战,它就是可以用一些误导或者是虚假消息,适时地让你看到某个总统候选人虐待动物,或者是说适时看到某个总统候选人很喜欢小动物。几个行为的模式,就会让人对某个人或者某个政党产生喜好或厌恶。
以前精准行销是一个平台,投放内容至少都还是需要人去编辑,现在有了生成式科技,编辑也可以靠电脑去生成,然后去在不同的时候,给人不同的事情厌恶感或者是喜好感。
我可以举一个例子,像前几天日本地震,我们看到第一时间就有协同团体,它就在PTT上面去操作台湾跟日本的关系。它会在台湾组织人道救援队的新闻下面,提到日本释放福岛废水,那是不是台湾政府对台湾人的死活不顾,还要跑去救日本人?相关的言论就会在这个新闻出来的第一时间,不断地在下面去渲染,好像台湾民众是反日的,好像政府不应该去救援,救援就好像是不顾台湾人民的死活。
现在跟过去比起来,就是这个事件一出来,它相关的新闻议题的内容,怎么去反制民众的观感、怎么去反制政府去援助日本,它在第一时间就进来了。
这种第一时间进来,我们可以看到,以后如果说这种精准行销的平台再加上生成式科技,这会变成一个非常强大的武器,它可以像导弹一样。每一个议题一出现,它就立刻会有操作的言论进来,去影响到民众的观感。
扶摇:是,这个很可怕。
关于AI在网络世界操作人们的认知,您还有什么要补充的吗?
杜奕瑾:我觉得其实2023年台湾的总统大选,应该是生成式科技运用在认知作战的前哨站,我们在台湾已经看到有非常多的操作。也希望我们藉由这种开放的研究、以及我们这种平台的合作,我们可以跟全世界不管是民主国家或者是全世界顶尖的研究伙伴、对这方面有兴趣的,都欢迎跟台湾人工智慧实验室联络。
我们可以一起来思考,就是未来在生成式科技的时代,我们怎么去建立一个全面而且是安全的讯息环境,让各个媒体都可以在一个可信任跟负责任的基础上面,去让大家安全地接收到各种消息。
扶摇:好的,非常感谢杜奕瑾先生接受我们的采访,也感谢大家的收看。希望大家都可以洞悉真实的世界,再会。
欢迎订阅YouTube频道:https://www.youtube.com/channel/UC_78IIcKAIDpp6SJOlf3vDA
欢迎订阅干净世界频道:https://www.ganjingworld.com/channel/1eiqjdnq7go5grer6fQLmhsYe1g60c
新唐人《新闻大家谈》制作组
责任编辑:高静