来自数据与社会的一份新报告提出了对欺骗性篡改视频的自动解决方案的质疑,包括被称为“深度伪造”的机器学习篡改视频。作家布里特·帕里斯和琼·多诺万认为,深度造假虽然新鲜,但却是媒体操纵的悠久历史的一部分——这需要社会和技术两方面的修复。依靠人工智能将更多的数据和权力集中在私营企业手中,实际上会让事情变得更糟。
帕里斯表示:“围绕深度假货的恐慌证明,快速的技术解决方案没有解决结构性不平等问题是合理的。”“这是一个庞大的项目,但我们需要找到既能解决社会问题又能解决政治问题的办法,这样没有权力的人就不会被排除在外。”
正如帕里斯和多诺万所看到的,深度造假不太可能仅靠技术来解决。“媒体与真相之间的关系从未稳定过,”报告写道。19世纪50年代,当法官开始允许在法庭上使用摄影证据时,人们不信任这项新技术,更喜欢证人证词和书面记录。到上世纪90年代,媒体公司通过选择性地编辑晚间广播节目中的图片,串通一气歪曲事件真相。在海湾战争中,记者们未能展现美军和伊拉克部队之间明显不均衡的死亡人数,从而在势均力敌的对手之间制造了一场冲突。“这些图片都是真实的,”报告说。“操纵它们的是它们如何在有线电视上被语境化、解释和全天候播出。”
如今,深度造假甚至更进一步,允许人们使用机器学习来操纵视频和图像,其结果几乎是肉眼无法检测到的。现在,该报告称,“任何拥有公开社交媒体资料的人都有可能被伪造。”“一旦这些假货存在,它们就能在社交媒体上迅速走红。
为了解决这个问题,Facebook最近宣布,它将发布一个数据集,允许人们测试旨在检测深度造假内容的新模型。使用人工智能和区块链技术来检测被篡改照片的TruePic等初创企业也开始获得动力。最近,美国国防高级研究计划局(DARPA)对Medifor进行了投资。Medifor通过观察视频像素的差异来确定何时对某些内容进行了修改。但是,几乎所有这些解决方案的目标都是在捕获点(以便更容易区分经过修改的内容和未经修改的内容)。
法律专家认为这种做法是积极的,他们指出,深度造假的问题不能仅仅通过法庭来解决。电子前沿基金会(Electronic Frontier Foundation)的公民自由主任戴维•格林(David Greene)表示,伪造视频在政治评论、恶搞和匿名化那些需要身份保护的人方面也有重要用途。
他补充说:“如果要制定一部‘深度造假法’,就需要考虑言论自由。”他指出,如果人们利用‘深度造假法’来做一些非法的事情,比如敲诈勒索,他们可能会根据现有法律受到起诉。
但帕里斯担心,人工智能驱动的内容过滤器和其他技术修复可能会造成真正的损害。她说:“它们让一些人的生活变得更好,但也可能让另一些人的生活变得更糟。”“设计新的技术模型为企业创造了机会,让它们捕捉各种各样的图像,并创建一个在线生活的存储库。”
鲍比·切斯尼(Bobby Chesney)是《深度造假:隐私、民主和国家安全面临的迫在眉睫的挑战》(Deep Fakes: AChallenge for Privacy, Democracy, and National Security)一文的合著者,他并不认为数据收集是一个问题。他说:“我认为,如果不受监管,私营企业将能够获得更多信息。”“但那种认为它本质上是坏的想法,在我看来缺乏说服力。”
切斯尼和帕里斯一致认为,有必要采取某种技术补救措施,它必须与法律体系合作,起诉坏人,阻止伪造视频的传播。切斯尼补充说:“我们需要讨论减轻和限制危害,而不是解决这个问题。”“深度造假不会消失。”
文章来源:
https://www.theverge.com/2019/9/18/20872084/ai-deepfakes-solution-report-data-society-video-altered
供稿者:袁璐 编辑:杨慕青
声明:本文来自北邮互联网治理与法律研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。