作者 | 包永刚
Gartner发布了一系列《Predicts 2021》研究报告,其中一份报告概述了人工智能(AI)将在未来几年引发的重大影响,包括广泛的道德和社会问题。
Gartner的五位分析师在《2021年预测:人工智能对人类和社会的影响》的报告中预测了2025年将会产生的变化,该报告特别关注了所谓的人工智能的二级后果,这种后果是非预期的新技术的成果。
例如,生成式AI现在可以创建出实际上并不存在的人物和物体的非常逼真的照片。
Gartner预测,到2023年,将有20%的账户被这种由AI产生的Deepfake接管。报告指出:“可以创建和生成超逼真的内容的AI能力,将对人们相信自己的眼睛所看到的产生变革性的影响。”
该报告从AI市场的5个角度进行了预测,并就企业如何应对和适应这些未来的挑战提出了建议:
到2025年,预先训练的AI模型将主要集中在1%的供应商中,这将使AI的负责任地使用成为社会关注的问题
在2023年,成功的账户接管攻击将有20%使用Deepfake,它将会成为社会工程学攻击的一部分
到2024年,将有60%的AI提供商会将缓解危害/滥用行为作为其软件的一部分
到2025年,将有10%的政府通过使用合成AI来避免隐私和安全问题
到2025年,工作场所75%的对话将被记录和分析,以用于增加组织价值和评估风险
这些分析中的每一个都足以使AI观察者引起足够的关注,如果将这些预测结合起来时,就可以勾勒出未来的严峻形势,其中涉及道德问题,潜在的AI滥用以及工作场所隐私的丧失。
1、如何应对
如果Gartner的分析师的预测准确无误,那么关于AI带来的隐私和真相的影响的担忧必将成为未来几年的主要话题,成功的企业将需要准备迅速适应这些担忧。
该报告中的一个重要的主题是,在依赖AI的公司(无论是服务还是产品)中建立道德委员会。Gartner说,对于计划记录和分析工作场所对话的企业,尤其要注意这一点,应建立具有员工代表的董事会,以确保公平使用对话数据。
Gartner还建议企业建立负责任的AI使用标准,并优先考虑“可以证明AI能够清晰发展和解决相关社会问题”的供应商。
至于围绕Deepfake和生成式AI的安全问题,Gartner建议组织安排有关Deepfake的培训。报告说:“我们现在正在进入零信任的世界。除非使用加密的数字签名证明它是经过认证的,否则任何事物都不能被信任。”
该报告有很多内容值得关注,有数据说,最好的Deepfake检测软件从长期来看将以50%的识别率达到顶峰。还预测到2023年,一家大型美国公司将采用对话分析来确定员工薪酬。这些分析中有很多需要担心的地方,也包括潜在的解决方案。
雷锋网编译,原文链接:
https://www.techrepublic.com/article/gartner-the-future-of-ai-is-not-as-rosy-as-some-might-think/
声明:本文来自雷锋网,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。