欧盟人工智能法生效,禁止公共场合人脸识别,违者罚款3500万欧

冬菱谈国际 2025-02-05 11:56:39

去年五月,欧盟通过了《人工智能法》,这是欧盟出台的第一部规范人工智能应用的跨国立法。其中的部分规定在今年2月正式生效。整部法律则将于2027年8月正式生效。

欧盟方面表示,新法规不仅是为了保护消费者权益,也能确保用户负责任地使用人工智能。

自本周日(2月2日)起,人工智能的开发公司和用户公司必须评估人工智能系统的风险水平,在不满足法律要求时必须采取适当措施。

而用于高风险领域的人工智能系统更加需要满足透明度、准确性、网络安全和训练数据质量等各种标准。

新规要求人工智能系统在进入欧盟市场时必须获得认证批准,人工智能开发商也必须保留技术文档以供审查。欧盟将设立“人工智能办公室”来监督整个欧盟区的执法工作。

新规中最重要的部分还禁止使用人工智能程序评估社会行为,换句话说,人工智能既不可以用来分析人类行为,也不能对人类进行评级,更不能借此进行奖惩。

另外,不允许用人工智能在公共场所进行人脸识别。

只有警察和安全机构可以例外,允许警方使用人工智能技术对某些犯罪行为进行调查,如人口贩卖和恐怖主义等。

此外,为防误导,人工智能生成的内容,包含图像、声音或文本等必须进行标记。

根据《人工智能法》,违反以上规定的,将人工智能系统用于特定禁止用途的最高罚款为3500万欧元,或至少为公司年收入的7%。没有向监管机构提供正确信息的最高罚款则至少为公司年收入的1.5%。

欧盟表示,人工智能即使具有提高社会效益、拉动经济增长和增强欧盟创新和全球竞争力的巨大潜力,但同时也伴随着侵犯用户安全(包括人身安全和基本权利)的风险。

欧盟警告,目前广泛使用的某些人工智能模型“甚至可能存在系统性风险”。

华盛顿智库“欧洲政策分析中心”(CEPA)在上周五发布了一篇文章中这样评价:欧盟的《人工智能法》进展没有想像中那么顺利。文章提到,欧盟人工智能办公室正在起草一份详细的业务守则,但一些行业相关者认为,保留给他们提供反馈的时间过于紧迫。

部分行业代表也提出质疑:人工智能开发者是否真有必要向第三方评估者开放他们的模型。业务守则中还规范,开发者需要提供有关其训练数据的详细信息,包括数据是否合法获取。这让一些公司担心商业机密可能受到威胁,而且欧盟对合法获取数据的定义也存在争议。

0 阅读:25

冬菱谈国际

简介:感谢大家的关注