拟于2026年8月2日前完成立法,并延后高风险AI规则正式适用时间。
欧委会权力进一步扩大:
1. 强化规则协调权
委员会可通过实施法案(implementing acts)协调《人工智能法案》与机械、医疗器械等部门法之间的适用关系,减少规则重叠并增强其跨领域监管协调权。
2. 扩大准立法权
委员会可依据《机械法规》通过授权法案(delegated acts)增设AI健康与安全要求,进一步强化其调整技术监管规则的能力。
3. 增强集中执法权
明确欧盟AI Office对通用人工智能模型相关系统的监督权限,推动AI监管由成员国分散执法向欧盟层面集中。
4. 强化软法解释权
欧委会被要求发布指导意见,协调AI法案与部门立法的适用,进一步增强其软法治理与规则解释权。
2026年5月7日,欧盟理事会轮值主席国与欧洲议会谈判代表就简化人工智能(AI)相关规则的提案达成临时政治协议。
时间线
2025年11月19日,委员会提议:
将高风险人工智能系统相关规则的适用时间表最多推迟16个月,以确保相关规则在委员会确认必要标准和工具已经到位后再行适用
对《人工智能法》作出若干有针对性的修订,包括:将原本赋予中小企业(SMEs)的部分监管豁免扩大适用于small mid-caps, SMCs
在极少数情形下降低合规要求
扩大为检测和缓解偏见而处理敏感个人数据的可能性
强化人工智能办公室(AI Office)的权限
减少治理碎片化
2026年3月13日,理事会就一项旨在简化《人工智能法》实施规则的提案达成其立场,总体维持了委员会提案的基本方向。
要求欧委会发布跨部门合规指引,降低高风险AI运营者合规成本。
姜冯安,公众号:欧盟法研究欧盟理事会就《人工智能法》简化实施方案达成立场
2026年5月7日,欧盟理事会与欧洲议会达成临时政治协议。
一、推迟高风险AI适用时间
该法案推迟了《人工智能法案》部分条款的适用时间,以确保为规则适用提供解释所必需的标准与支持措施能够及时到位。根据此次协议,高风险人工智能系统相关义务将按以下时间表开始适用:
独立型:自2027年12月2日起,适用于具有高风险用途的人工智能系统(包括涉及生物识别,以及用于关键基础设施、教育、就业、执法和边境管理等领域的系统); 嵌入型:自2028年8月2日起,适用于作为安全组件(safety components)使用,并受欧盟部门性安全与市场监管立法约束的人工智能系统。 临时协议还将成员国主管机关建立人工智能监管沙盒(AI regulatory sandboxes)的期限推迟至2027年8月2日;并将提供者落实人工生成内容透明度解决方案的宽限期由6个月缩短至3个月,相应的新截止日期为2026年12月2日。
该法案还将人工智能生成内容的水印义务(watermarking obligations)适用日期推迟至2026年12月2日(而非委员会提案中的2027年2月2日)。水印技术可用于识别与追踪人工智能生成内容。
https://www.europarl.europa.eu/news/en/press-room/20260427IPR42011/ai-act-deal-on-simplification-measures-ban-on-nudifier-apps
独立型(stand-alone)高风险人工智能系统的新适用日期为2027年12月2日;嵌入产品中的高风险人工智能系统的新适用日期为2028年8月2日。
https://ec.europa.eu/commission/presscorner/detail/en/ip_26_1024
二、新增禁止“去衣化”(nudifier)应用
禁止以下人工智能系统:生成儿童性虐待材料(CSAM),或者在未经本人同意的情况下,生成可识别个人私密部位图像、或描绘其从事露骨性行为内容的人工智能系统。
该禁令适用于:
以生成上述内容为目的,将相关人工智能系统投放欧盟市场; 在缺乏合理安全措施以防止生成上述内容的情况下,将相关系统投放欧盟市场; 部署者(deployers)使用相关系统生成上述内容。
相关内容既包括图像,也包括视频和音频。企业需在2026年12月2日前完成系统整改并实现合规。
三、减少规则重叠与强化集中执法
双方还就《人工智能法案》的以下修改达成一致:
通过明确机械产品中的人工智能仅需遵守部门性安全规则(而非同时适用《人工智能法案》与部门规则),减少重复监管;同时设置保障机制,以确保实现等同水平的健康与安全保护; 缩小“安全组件”(safety component)的认定范围,即仅用于辅助用户或优化性能的人工智能功能,不会自动被纳入高风险义务范围,前提是其失效或故障不会带来健康或安全风险; 关于《人工智能法案》对工业人工智能(industrial AI)的适用规则,以及其与医疗器械、玩具、电梯、机械设备和船艇等领域部门立法之间的衔接问题,共同立法机构达成了一项折中方案:当部门法已经包含与《人工智能法案》类似的人工智能专门要求时,可通过实施法案(implementing acts)限制《人工智能法案》在特定情形下的适用范围,从而解决规则重叠问题。
此外,各方还达成妥协,决定使《机械法规》(Machinery Regulation)免于《人工智能法案》的直接适用。同时,委员会被授权依据《机械法规》通过授权法案(delegated acts),为依据《人工智能法案》被认定为高风险的人工智能系统增设健康与安全要求。该方案有效解决了《人工智能法案》高风险要求与部门立法要求之间可能存在的重叠问题。
在具备适当保障措施的情况下,无论是高风险还是非高风险人工智能系统,只要为检测和纠正偏见所“严格必要”,即可处理个人数据; 将针对中小企业(SMEs)的部分规则豁免扩大适用于small mid-cap enterprises, SMCs,以支持其发展; 明确欧盟人工智能办公室(AI Office)对部分通用人工智能系统(general-purpose AI systems)的执法机制。 共同立法机构达成的协议还进一步明确了欧盟人工智能办公室在监督基于通用人工智能模型(general-purpose AI models)的人工智能系统方面的权限,特别是在模型与系统均由同一提供者开发的情况下。同时,协议列举了若干仍由国家主管机关保留管辖权的例外领域,包括执法、边境管理、司法机关以及金融机构等。
最后,临时协议还新增一项义务,要求委员会发布指导意见,协助受部门协调立法覆盖的高风险人工智能系统经济运营者,以尽可能降低合规负担的方式履行《人工智能法案》的高风险要求。
要求欧委会发布跨部门合规指引,降低高风险AI运营者合规成本。
姜冯安,公众号:欧盟法研究欧盟理事会就《人工智能法》简化实施方案达成立场
该临时协议仍需欧洲议会与欧盟理事会正式通过后方可生效。共同立法机构计划在2026年8月2日——即现行高风险系统规则原定开始适用之日——之前完成正式立法程序。