文|端晨希 中国信息通信研究院互联网法律研究中心研究员
生成式人工智能输出内容的准确性不足是导致生成式人工智能产生不可靠风险的重要原因,用户信赖缺乏准确性的人工智能生成内容可能造成错误信息的传播以及声誉和财产损失。提高生成式人工智能输出内容的准确性主要通过提升训练数据准确性和算法模型能力实现。2024年4月12日,英国数据保护机构(Information Commissioner’s Office, ICO)发布数据保护法如何适用于生成式人工智能的第三期意见征集和分析研究。其中,ICO对训练数据准确性和生成式人工智能模型输出内容准确性的意见值得关注。
首先,“准确性”在法律和技术上的含义不同。数据保护法上的准确性[1]是处理个人数据的原则之一,要求数据处理者结合数据处理目的,确保处理个人信息数据不会对事实产生误导,并在必要时更正或删除。技术上的准确性关注人工智能系统的性能,是对人工智能系统输出数据与正确数据相比较的结果,ICO将技术上的准确性描述为统计准确性“statistical accuracy”。
其次,“准确性”要求与数据处理目的和生成式人工智能部署用途密切相关。ICO认为输入和输出数据并不要求绝对准确。对于输入的个人信息数据,不同的处理目的对数据更新要求不同,并不一定需要数据时刻保持在最新状态[2]。对于生成式人工智能输出数据,不要求人工智能系统达到100%准确[3]。生成式人工智能统计准确性要求的程度需要结合模型使用目的进行判断,对于用于纯粹创造性目的的生成式人工智能,准确性并不作为其研发应用关注的首要目标;而对于提供决策信息而影响人类决策的生成式人工智能,则需要将准确和可靠作为模型设计和后续测试验证关注的重点。
再次,需要采取相关管理和技术措施防范生成式人工智能输出不准确导致的负面影响。ICO提出,对于输入数据,可在数据收集阶段选择可信来源数据,并对数据进行管护(data curation),通过数据过滤筛选等机制提升模型训练数据的准确性。对于生成式人工智能模型输出数据,需同时评估大模型“幻觉”(hallucinations)的影响,采取相应措施,保障生成式人工智能以与其准确性能力相符的方式部署和使用,避免生成式人工智能输出内容被滥用或过度依赖。
最后,开发和部署主体需要对输入和输出数据的准确性有清晰的了解和沟通。为提升准确性,ICO对生成式人工智能的开发和部署主体提出了具体建议。对于生成式人工智能的开发人员,一是需要了解训练数据是否符合数据保护法要求的准确性原则,区分真实数据与虚构数据、最新数据与历史数据、原始数据与生成数据等;二是需要记录训练数据的准确性对生成式人工智能模型输出的影响;三是考虑生成式人工智能模型输出的准确性是否与模型使用目的相匹配;四是通过清晰、透明、简洁的方式,向模型部署者和最终用户表明系统在准确性方面的局限性。对于生成式人工智能的部署者,一是应当在部署应用层面考虑输入数据和输出数据的准确性局限可能造成的风险,并通过输出过滤等机制防范风险;二是向用户提供关于模型输出准确性能力和预期用途的明确信息,标记人工智能生成水印等;三是监测生成式人工智能模型的使用,在必要时更新对模型使用的限制。
引注:
[1]《英国通用数据保护条例》第五条(1)(d)提出:个人信息应当准确,在必要时及时更新;在考虑到处理目的的情况下,必须采取合理措施对不准确的个人数据进行删除或更正。
[2]ICO在关于准确性的说明中指出,个人信息的准确性需要结合处理目的,确保不具有误导性,而更新数据的频率和时间取决于处理目的,如对于为了就过去一段时期的情况进行分析的,则不需更新数据。https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/data-protection-principles/a-guide-to-the-data-protection-principles/the-principles/accuracy
[3]ICO在《人工智能和数据保护指南》准确性部分提出,数据保护的准确性原则适用于人工智能系统输入的个人信息和系统输出。然而,并不意味着人工智能系统需要在统计上100%准确才能符合准确性原则。https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/artificial-intelligence/guidance-on-ai-and-data-protection/what-do-we-need-to-know-about-accuracy-and-statistical-accuracy
声明:本文来自CAICT互联网法律研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。