随着自然语言处理、生成对抗网络等人工智能技术的发展,社交网络正在成为混合战争中的新战场。近期,随着俄乌冲突不断升级,国外媒体也披露了与之相关的对抗情况。美国华盛顿邮报甚至将社交媒体称为“俄罗斯-乌克兰对峙的关键战场”。
一、通过深度学习合成或篡改图像和视频
2月23日,美国福克斯新闻网称,美国情报官员正在密切关注可能被操控的视频和音频,包括寻找与俄罗斯总统普京、乌克兰总统泽连斯基和其他关键人物相关的深度造假视频。美联邦调查局网络部门负责人称,“(深度造假技术)将生成音频、视频、文本和图像,以显示不一定会发生或从未发生的事”。
利用深度学习篡改信息有多种技术途径,如Deepfake、Face2face等。Deepfake利用生成对抗网络生成一个整体上的假图像,传统检测图像是否经过编辑的手段无法检测这种假图像。Face2face是一种利用图像合成的造假方法,主要手段是把一个人的面部特征和表情与另一个人的照片进行合成。
二、利用社交机器人自动生成并散播消息
2月8日,乌克兰国家安全局表示,已关闭了一个在社交媒体上散布恐慌并发出炸弹威胁的社交机器人农场,并称该农场管理了18000个社交机器人账号,由“来自俄罗斯的组织者负责农场监管”。
社交机器人是由人工智能控制的社交媒体账号,能在社交媒体上自动生成内容并与人类用户互动,最早用于信息的自动转发或在网上自动查找消息。随着自然语言处理等人工智能技术的进步,社交机器人已能利用预训练的多语言模型,在推特等社交平台生成类人的言论,从而用于操纵公众舆论或煽动情绪。2019年,美国纽约大学研究认为,在与俄罗斯政治相关的俄语推文中,超过一半的账号是社交机器人。对社交媒体机器人的检测可采用随机森林、神经网络等方法,通过识别用户活动模式、网络连接特性等,区分机器人用户和人类用户。
三、利用机器学习检测虚假信息
1月20日,美国国务院在一份情况说明书中表示,“多年来,俄罗斯编造了一系列虚假叙述,其虚假信息和宣传生态系统正在不断注入全球信息环境”,同时提出了5个与俄方政治相关的“虚假信息主题”。2月4日,美国CBS新闻网称,美国白宫认为俄罗斯伪造了一段爆炸视频,并“以此作为入侵乌克兰的借口”。
虚假信息的检测已经成为社交网络上一个关键问题,其检测方法与信息的类型相关。例如,利用棋盘伪影、共现矩阵等方法,可检测生成对抗网络生成的虚假视频;利用面部特征检测等方法,可检测以换脸方式伪造的视频;利用信息的多模态特征,可检测由多种信息组合而成的假新闻等。美国防部资助了大量检测虚假信息的研究。
四、利用计算机视觉技术在社交网络中发现情报
近期,大批乌克兰网民在推特、YouTube等社交网站上发布了乌克兰军队相关的视频、图片,透露了大量有关作战部署、装备型号、部署地点、战损情况等内容。俄军很可能利用计算机视觉技术,从社交媒体中发掘有价值的情报信息,作为常规情监侦手段的重要补充。
计算机视觉是人工智能技术应用的重要领域,也是目前人工智能技术在作战中应用最为广泛的领域,其核心是图像和目标的检测、分类、识别和定位。利用卷积神经网络等深度学习方法,已能从海量图像数据中快速、精准地识别和锁定敌对目标。
(蓝海星:马晓晨)
声明:本文来自蓝海星智库,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。