2024 年 10 月 16 日,荷兰政府发布了《欧盟人工智能法案》(EU AI Act,以下简称为 AI 法案)指南,以供组织内的人工智能 (AI) 开发人员和部署人员参考使用。指南提出相关组织适用 AI 法案需要考虑的四个主要问题:

1. 风险 - 相关 AI 系统落入何种受规范的 AI 风险类别?

所有满足条件的 AI 系统都受到 AI 法案的约束,但不同类别的 AI 风险具有不同的要求,禁止的 AI 系统不得销售、使用或投入使用,高风险 AI 系统在可以销售或使用之前必须满足不同的要求以限制风险。指南列举了两种类型的高风险人工智能系统:(1)高风险产品——直接或间接地同时受到 AI 法案规范的现有受监管产品(例如,作为医疗设备的人工智能系统);(2)高风险应用程序——为高风险领域的特定应用而开发和部署的应用程序,其中 AI 法案规定了8种。

2. AI 定义- 根据 AI 法案,该系统是否被视为“AI”?

AI 法案将 AI 系统定义为:“人工智能系统是一种基于机器的系统,其运行具有不同程度的自主性,在部署后可能表现出适应性,并且为了明确或隐含的目标,从其接收的输入中推断如何生成可影响物理或虚拟环境的输出,如预测、内容、建议或决定”。包括:(1)使用机器学习(machine learning)的系统,通过数据学习如何实现特定目标;(2)使用基于逻辑和知识的方法(knowledge and logic-based approaches)的系统,这些方法允许学习、推理或建模。不包括基于仅由人类设定的规则,用于自动执行操作的系统。

3.角色 - 组织是 AI 系统的提供者还是部署者?

提供者(provider)是指开发或委托开发AI系统或模型的个人或组织,并将该系统投放市场或自行使用。部署者(deployer)是指基于授权使用人工智能系统的个人或组织,而在个人的非职业活动中使用人工智能系统排除适用。指南明确指出,高风险人工智能系统的部署者在以下情况下会成为提供者:(1)将自己的名称或品牌标识在高风险人工智能系统上;(2)对高风险人工智能系统进行了提供者未预见到的重大改变,导致人工智能系统不再满足提供者的要求或预期目的。

4.义务 - 组织需要遵守哪些义务?

指南对于禁止的 AI 系统、高风险 AI 系统、通用人工智能模型以及生成式 AI 的提供者与部署者明确了不同限度的义务要求。该指南不涉及 AI 法案规定的其他角色,如授权代表、进口商和分销商的义务。

本文来源自“Rijksoverheid.nl",https://open.overheid.nl/documenten/8d7b5ccb-41fc-4d92-a4c2-a7fa81e66bfb/file

责任编辑:张启航

声明:本文来自数据法律资讯,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。