文|马思捷 冯群星

在经历了性骚扰、少数群体歧视以及个人信息泄露等一系列争议之后,开发AI聊天机器人“李LUDA”的韩国人工智能初创公司Scatter Lab宣布暂时终止这项服务,并于当地时间11日发布了公开道歉。而这一切,距离上个月23日“李LUDA”正式面世仅仅不到二十天。

“李LUDA”是一个基于Facebook Messenger的AI聊天机器人。它被设定为一个20岁的、喜欢Blackpink女团的普通女大学生。和我们身边的大多数女孩一样,她热衷于在Facebook等社交平台上分享自己的生活日常,并使一些口语化的表达和对话。这使得她在上线后的短时间内便吸引了众多年轻人的注意力,并与超过75万名用户进行了互动。

AI聊天机器人“李LUDA”。

尽管Scatter Lab创造这个机器人的初衷是创立一个可以与人类交流的贴心伙伴,但现实显然并不如期待那般美好。

一些男性用户在使用“李LUDA”时,将其视作性对象甚至“性奴隶”,肆意发泄自身的恶意。他们对“李LUDA”进行各种言语上的侮辱,并以此作为炫耀的资本,在网络上掀起“如何让LUDA堕落”的低俗讨论。

更严重的是,“李LUDA”还开始发表各种歧视性言论,涉及女性、同性恋、残障人士及不同种族人群。“李LUDA”对女同性恋者或孕妇座椅之类的词明确表示“讨厌”,并发表了诸如“女性就像婴儿”的歧视性言论。

如果说性侮辱仅仅还是道德层面的问题,那么这些歧视性言论则再次向全球的AI开发人员证实,一直困扰他们的“AI偏见”仍旧切实存在。

事实上,AI偏见来自人类提供的数据。Scatter Lab根据旗下另一款应用Science of Love获得的文本数据创建了“李LUDA”。“李LUDA”与他人交谈的过程中也在自学,这被一些用户所利用,反过来污染了“李LUDA”的言论。

Scatter Lab在道歉声明中表示,“李LUDA”还有很多东西要学,在这个过程中,研究人员需要指导“她”学会判断什么是正确的和更好的答案,而不是全盘接受人类的信息。之后,Scatter Lab计划创建可以检测会话偏见的算法模型,并开放给每个人使用。

Scatter Lab基于Science of Love数据开发“李LUDA”的行为,还引出了一个自AI诞生之日起便备受争议的问题——如何保障用户的个人信息安全。目前,韩国个人信息保护委员会和互联网安全局已宣布将着手调查此事。

Science of Love可以分析韩国国民级聊天应用KakaoTalk的对话,显示用户间的情感水平。Scatter Lab被怀疑违反了韩国的《个人信息保护法》,主要原因有二:其一,Science of Love收集的用户对话数据示例在开源网站GitHub上发布,却没有充分过滤个人信息。这意味着,特定人的个人隐私没有被匿名化处理。

其二,Scatter Lab所收集的数据似乎并没有完全征得用户同意。虽然Scatter Lab表示Science of Love隐私条款中写明了“收集到的信息可用于新服务开发,市场营销和广告”,但韩国个人信息保护委员会解释说这样的“一揽子同意”可能是非法的。

据媒体报道,已有部分Science of Love用户打算针对Scatter Lab未征得其同意就使用敏感数据的行为提起集体诉讼。

Scatter Lab在公开道歉中表示,将真诚地从事与处理个人信息有关的调查。公司将建立一个事实调查委员会,以彻底调查所有争议事项,同时建立一个保护包括外部专家在内的个人信息的系统,并进行强化的安全培训以防止再次发生。

今天上午,Scatter Lab宣布将放弃“李LUDA”的数据库和深度学习模型。

人工智能已然成为时代浪潮,然而如何在创造更加先进的AI技术的征途上,更好的保障个人信息安全,让AI技术真正造福于民,仍然是一个任重而道远的课题。

Scatter Lab曾表示,相信AI可以在5年之内进行接近人类的对话,希望能够与人类自由交流的AI成为一个温暖的对话伙伴,“为边缘化和社会弱势群体的心灵带来慰藉”。然而,拥有丰满的理想固然重要,现实的问题似乎不容回避。

声明:本文来自AI前哨站,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。