欧盟为具有系统性风险的 AI 模型定规矩:若发生严重事故必须上报,网安工作要到位

2025-07-18 发布 · 浏览20次 · 点赞0次 · 收藏0次

7 月 18 日消息,据路透社报道,欧盟委员会周五发布指导方针,帮助被认定具有系统性风险的 AI 模型落实《人工智能法案》的相关要求。这类模型将面临更严格的合规义务,以降低潜在风险。

这一举措旨在回应部分企业对《人工智能法案》监管负担的质疑,同时也为相关企业提供更明确的操作指引。根据该法案,若违反规定,企业将被处以 750 万欧元(注:现汇率约合 6249.6 万元人民币)或营业额 1.5%(最高 3500 万欧元)或全球营业额 7% 的罚款。

自今年 8 月 2 日起,该法案将适用于具有系统性风险的 AI 模型与基础模型,包括由谷歌、OpenAI、Meta、Anthropic 和 Mistral 开发的模型,各公司须在一年之内完成合规。

欧盟委员会将“具有系统性风险的模型”定义为具备高度计算能力、可能对公共健康、安全、基本权利或社会产生重大影响的 AI 系统

首批受监管的模型需完成模型评估、风险识别与缓解、对抗性测试、重大事件报告,以及配备足够的网络安全防护,以防模型被盗或被滥用。

对于通用型或基础 AI 模型,还将新增透明度义务,包括撰写技术文档、落实版权政策,并详尽说明训练数据的内容来源。

欧盟技术事务主管亨娜・维尔库宁表示:“这份最新发布的指导方针将有助于《人工智能法案》的顺利实施,确保监管更加清晰有效。”

欧盟为具有系统性风险的 AI 模型定规矩:若发生严重事故必须上报,网安工作要到位 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。