欧洲议会通过人工智能法案,保障安全并促进创新

本周三,欧洲议会通过了人工智能法案,确保安全合规,同时促进创新。

该法规是在2023年12月与成员国进行协商后达成的,并获得了523票赞成、46票反对和49票弃权的支持。

该法案旨在保护基本权利、民主、法治和环境可持续性,同时促进创新,并将欧洲确立为该领域的领导者。该法规根据人工智能的潜在风险和影响程度,对人工智能设定了义务。

禁止的应用

新规定禁止了某些威胁公民权利的人工智能应用,包括基于敏感特征的生物识别分类系统,以及未经针对性地从互联网或闭路电视摄像头录像中抓取面部图像来创建面部识别数据库。工作场所和学校的情感识别、社会评分、预测性执法(仅基于对个人进行概括性特征描述或评估其特征)、以及操纵人类行为或利用人们的弱点的人工智能也将被禁止。

执法豁免

原则上,执法部门使用生物识别身份验证系统(RBI)是被禁止的,除非在详细列出并且严格定义的情况下。“实时”RBI只有在满足严格的保障措施的情况下才能部署,例如其使用在时间和地理范围上受到限制,并且需要特定的事先司法或行政授权。这样的使用可能包括,例如,针对失踪人员的有针对性搜索或防止恐怖袭击。使用这类系统进行事后(“后期远程RBI”)被认为是高风险使用案例,需要与刑事犯罪相关的司法授权。

对高风险系统的义务

对于其他高风险人工智能系统(由于对健康、安全、基本权利、环境、民主和法治的潜在重大危害)也有明确的义务。高风险人工智能使用的例子包括关键基础设施、教育和职业培训、就业、基本的私人和公共服务(如医疗保健、银行业)、执法部门的某些系统、移民和边境管理、司法和民主过程(如影响选举)。这些系统必须评估和减少风险、维护使用日志、透明和准确,并确保人类监督。公民将有权就涉及其权利的高风险人工智能系统的决定提交投诉,并收到解释。

透明要求

通用人工智能(GPAI)系统以及它们所基于的GPAI模型必须满足某些透明要求,包括遵守欧盟版权法和发布详细的用于培训的内容摘要。那些可能构成系统风险的更强大的GPAI模型将面临额外的要求,包括进行模型评估、评估和减轻系统风险,并报告事件。

此外,人工或操纵的图像、音频或视频内容(“deepfakes”)需要明确标记。

支持创新和中小企业的措施

国家层面必须建立监管沙盒和实地测试,并且必须对中小企业和初创企业进行开放,以开发和培训创新的人工智能,然后将其投放市场。

引用

在周二的全体会议上,内部市场委员会共同报告员布兰多·贝尼菲(S&D,意大利)表示:“我们终于有了世界上第一个关于人工智能的约束性法律,以降低风险、创造机会、打击歧视并增加透明度。感谢议会,不可接受的人工智能做法将在欧洲被禁止,工人和公民的权利将受到保护。人工智能办公室现在将成立,支持企业在法规生效之前开始遵守规定。我们确保人类和欧洲价值观在人工智能的发展中处于核心地位”。

公民自由委员会共同报告员Dragos Tudorache(续约,罗马尼亚)表示:“欧盟已经做出了回应。我们已经将人工智能的概念与构成我们社会基础的基本价值联系起来。然而,AI法案本身只是开始,还有很多工作要做。人工智能将推动我们重新思考我们民主核心的社会契约、我们的教育模式、劳动力市场以及我们进行战争的方式。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注