欧盟人工智能的使用将受到世界上第一部全面的人工智能法《人工智能法案》的监管。了解它将如何保护您。
作为其数字战略的一部分,欧盟希望对人工智能(AI)进行监管,以确保为这一创新技术的开发和使用提供更好的条件。人工智能可以创造许多好处,例如更好的医疗保健;更安全、更清洁的运输;更高效的制造;以及更便宜和更可持续的能源。
2021年4月,欧盟委员会提出了欧盟首个人工智能监管框架。它表示,可用于不同应用的人工智能系统根据它们对用户造成的风险进行分析和分类。不同的风险水平意味着或多或少的监管。一旦获得批准,这将是世界上第一条关于人工智能的规则。
详细了解什么是人工智能及其使用方式
议会对人工智能立法的要求
议会的首要任务是确保欧盟使用的人工智能系统安全、透明、可追溯、非歧视和环境友好。人工智能系统应该由人而不是自动化来监督,以防止产生有害结果。
议会还希望为人工智能建立一个技术中立、统一的定义,可以应用于未来的人工智能系统。
详细了解议会在人工智能方面的工作及其对人工智能未来的愿景
AI法案:不同风险级别有不同规则
新规则根据人工智能的风险程度规定了提供商和用户的义务。虽然许多人工智能系统带来的风险很小,但仍需要对其进行评估。
不可接受的风险
不可接受的风险人工智能系统被认为对人类构成威胁并将被禁止。他们包括:
- 对人或特定弱势群体的认知行为操纵:例如鼓励儿童危险行为的声控玩具
- 社会评分:根据行为、社会经济地位或个人特征对人们进行分类
- 人员的生物特征识别和分类
- 实时和远程生物识别系统,例如面部识别
出于执法目的,可能允许一些例外情况。“实时”远程生物识别系统将被允许用于有限数量的严重案件,而“后”远程生物识别系统(在明显延迟后进行识别)将被允许起诉严重犯罪,并且只有在法院批准后。
高风险
对安全或基本权利产生负面影响的人工智能系统将被视为高风险,并将分为两类:
1) 用于符合欧盟产品安全立法的产品中的人工智能系统。这包括玩具、航空、汽车、医疗设备和电梯。
2)属于特定领域的人工智能系统必须在欧盟数据库中注册:
- 关键基础设施的管理和运营
- 教育和职业培训
- 就业、工人管理和自营职业机会
- 获得和享受基本私人服务以及公共服务和福利
- 执法
- 移民、庇护和边境管制管理
- 协助法律解释和法律适用。
所有高风险人工智能系统在投放市场之前及其整个生命周期都将接受评估。
通用和生成人工智能
生成式人工智能,如 ChatGPT,必须遵守透明度要求:
- 披露内容是由人工智能生成的
- 设计模型以防止其生成非法内容
- 发布用于培训的受版权保护数据的摘要
可能带来系统性风险的高影响力通用人工智能模型,例如更先进的人工智能模型 GPT-4,必须经过彻底的评估,任何严重事件都必须向欧盟委员会报告。
风险有限
有限风险的人工智能系统应遵守最低透明度要求,以便用户做出明智的决策。与应用程序交互后,用户可以决定是否继续使用它。用户在与人工智能交互时应该意识到这一点。这包括生成或操纵图像、音频或视频内容(例如深度伪造)的人工智能系统。
下一步
2023 年 12 月 9 日,议会与理事会就人工智能法案达成临时协议。商定的文本现在必须由议会和理事会正式通过才能成为欧盟法律。
在所有欧洲议会议员对该协议发表意见之前,议会的内部市场和公民自由委员会将对其进行投票。
有关欧盟数字措施的更多信息
(谷歌翻译:EU AI Act: first regulation on artificial intelligence)