7月18日讯,路透社报道指出,欧盟委员会于近日发布新指南,专门针对被认定为具有系统性风险的AI模型,协助其履行《人工智能法案》的相关规定要求。这类AI模型将面临更为严格的合规标准,以有效降低可能引发的风险。
此举旨在回应业界对《人工智能法案》监管要求过重的担忧,同时为相关企业提供了更明确的操作指引和规范。根据该法案规定,违规企业将面临最高750万欧元(约合人民币6249.6万元)或其全球营业额1.5%(最高达3500万欧元)的罚款。
自今年8月2日起,该法规将适用于具有系统性风险的AI模型及基础模型,涵盖由谷歌、OpenAI、Meta、Anthropic和Mistral等公司开发的主流模型。相关企业需在一年内完成合规工作。
欧盟委员会对”具有系统性风险的模型”进行了明确定义,即具备强大计算能力且可能对公众健康、安全、基本权利或社会稳定造成重大影响的人工智能系统。
首批需要接受监管的AI模型,必须完成包括模型评估、风险识别与缓解策略、对抗性测试、重大事件报告在内的一系列程序,并确保具备完善的网络安全防护措施,以防止模型被非法盗用或滥用。
对于通用型和基础AI模型,还将新增更高的透明度要求,包括编制技术文档、落实版权政策以及详细说明训练数据的来源等内容。
欧盟技术事务主管亨娜·维尔库宁表示:”这份新发布的指导方针将为《人工智能法案》的顺利实施提供有力支持,有助于提升监管体系的有效性和清晰度。”
© 版权声明
文章版权归作者所有,未经允许请勿转载。