人工智能可以识别图片中的人物,找到下一部你会在Netflix(美国收费视频网站)上狂看的电视剧,甚至可以驾驶汽车。
但是当新西兰的一名疑似恐怖分子于3月8日在Facebook上直播了一场大屠杀的视频时,这项技术却毫无用处。这场可怕的直播持续了至少17分钟,直到新西兰警方向Facebook举报。这段视频的录音和相关帖子在社交媒体上迅速蹿红,而各公司也在努力跟进。
人工智能已经被各大社交网站用来帮助管控用户上传的状态更新、照片和视频,为什么不能简单地采取更有力的措施,在网络暴力出现时尽快消除呢?
一个重要的原因是,无论是仇恨言论帖子、色情内容、暴力图片或视频,人工智能仍然不擅长在网上识别这些令人反感的内容。这在很大程度上是因为,人类非常善于结合状态更新或YouTube的上下文来对其内容进行判断,但这对人工智能来说很难。
近年来,人工智能技术有了极大进展,Facebook、Twitter、YouTube、Tumblr等网站越来越多地依靠人工智能和人类版主的结合来监管用户发布的内容。
数量巨大的帖子
但由于每天都有大量的帖子出现在这些网站上,即便是这种人与机器的结合监管也很难跟上。要想可靠地识别出网络上的仇恨言论或暴力行为,人工智能还有很长的路要走。
人工智能技术公司依靠机器学习技术来识别网上令人厌恶的内容,它能在大量数据中发现固定模式;它可以识别特定语境中的攻击性语言、视频或图片。这是因为这些帖子遵循人工智能可以识别的模式。例如,如果你给一个掌握机器学习的算法程序以大量的枪支图像或书面的宗教诽谤,它可以学会在其他图像和文本中发现这些东西。
然而,人工智能并不擅长理解诸如谁在写或上传图像,或者在周围的社会或文化环境中可能重要的事情。
俄勒冈大学(University of Oregon)研究人工智能和机器学习的副教授丹尼尔·洛德(Daniel Lowd)说,尤其是涉及到煽动暴力的言论时,语境“非常重要”。
有些评论可能表面上看起来很暴力,但实际上是对暴力的讽刺。或者,它们听起来可能无害,但对于了解最新消息或了解它们产生的当地文化背景的人来说,它们是危险的。
洛德说:“一些词语的影响在很大程度上取决于文化背景。”他指出,即使是人类版主也很难在社交网站上分析这一点。
识别暴力
即使暴力出现在视频中,一个人——更不用说一个训练有素的机器——能够发现它,或者决定如何处理它也并不总是那么简单。武器可能在视频或照片中不可见,或者看似暴力的东西实际上可能是模拟的。此外,照明或背景图像等因素可能会导致计算机上的显示失实。
加州大学洛杉矶分校(UCLA)研究内容适度和社交媒体的助理教授萨拉·T·罗伯茨(Sarah T. Roberts)说,尤其在计算上,使用人工智能很难在视频中发现暴力。
她说:“视频这种媒介的复杂性,以及围绕它的特殊性,不仅仅是每秒有多少帧,而且还要加上一些东西,比如把记录下来的内容赋予意义,都是非常困难的。”
她说,不仅仅是用人工智能从一个视频中收集意义很难,社交网站上每天都能看到大量的视频。例如,在YouTube上,用户每分钟上传超过400小时的视频,即每天超过57.6万小时。“这些公司交互的是数十万小时的视频,”罗伯茨说。“这实际上是他们要求的,也是他们想要的。”
(供稿者:苏 伟 编辑:袁 媛)
原文地址:
https://us.cnn.com/2019/03/16/tech/ai-video-spotting-terror-violence-new-zealand/index.html
声明:本文来自北邮互联网治理与法律研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。