可信AI治理之(一):人工智能服务合规与治理

安用 2024-06-27 06:01:17

引言

在数字化、智能化深入发展的时代背景下,人工智能(AI)领域近年来取得了巨大进展,渗透到经济社会核心领域。伴随着AI广泛应用而来的是AI技术在隐私权、模型算法安全、伦理道德等方面面临的挑战。这些问题能否被妥善管理,直接关系到AI技术活力的可持续性以及AI产业相关企业的发展命运。因此,安永将连续推出“可信AI治理”系列文章,旨在帮助企业破局人工智能的风险治理工作难点,寻找到切实可行的可信AI治理之路。

安永将通过本文带您了解不同国家和地区的AI治理实践,分析人工智能治理工作的重点关注领域。

不同国家和地区的AI治理实践

为了更好地发挥人工智能的技术优势,进一步占领国际市场和话语权,各国纷纷出台AI发展战略和具体政策,从战略层面将人工智能治理问题纳入整体规划,并基于不同的文化背景、产业情况、发展特点等因素,形成各具鲜明特点的治理方案。

► 欧盟:可信赖的AI

2020年2月,欧盟发布《人工智能白皮书:追求卓越和信任的欧洲方案》,认为面对人工智能带来的机遇和挑战,欧洲需要建立卓越且可信任的人工智能生态系统。2024年5月21日,欧盟理事会正式批准欧盟《人工智能法案》,使其成为全球范围内首部系统化规制人工智能的法律,支持促进欧盟在发展安全、可信和有道德的人工智能方面成为全球领导者的目标。

► 美国:友好的AI

2021年,美国颁布《国家人工智能倡议法案》。2023年1月26日,由美国国家标准与技术研究院(NIST)牵头制定的《人工智能风险管理框架》(AI RMF 1.0)正式发布。总体来说,美国联邦政府强调审慎监管促进AI创新发展,鼓励行政机构与私营部门合作,在治理与监管中突出市场的作用,充分发挥州和地方的作用,同时采取自愿原则鼓励人工智能企业积极承担社会责任,避免因强监管阻碍AI创新发展。

► 中国:负责任的AI

2019年6月,中国新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,旨在更好协调人工智能发展与治理的关系,确保人工智能安全可控可靠,推动经济、社会及生态可持续发展,共建人类命运共同体。虽然中国目前尚未颁布人工智能相关法律,但为了进一步规范人工智能技术应用,陆续发布了有关人工智能的管理办法、国家和行业技术标准。

AI合规与治理三大关注重点

纵观已发布或实施的人工智能相关管理办法、标准文件和实践指南,各项合规和安全要求贯穿人工智能产品或服务的全生命周期,我国AI合规与治理框架已初现雏形。下文将从三个方面逐一展开介绍AI合规治理的关注重点:

► AI组织治理

可信AI的总体原则

《互联网信息服务算法管理规定》第四条明确指出,服务提供者应遵循公平公正、公开透明、科学合理、诚实可信的原则。在开展模型算法开发等活动时,应当保证数据处理透明度和结果公平合理,保证数据与模型使用的合理性、正当性、可解释性。

组织架构与人员职责

人工智能服务提供者应设立专门的组织机构负责承担算法安全工作,其职责包括但不限于制度措施以及应急预案的制定和执行。组织应从算法服务规模、算法复杂度、算法迭代更新速度等角度出发,配备与之在人员规模、技术能力等方面相适应的专业技术人员。

人工智能分级分类管理

聚焦算法种类和具体应用场景,基于算法对于个人和社会可能产生的负面影响,明确算法分类分级标准,对不同风险程度的算法提出不同的管理要求。

► AI开发训练

算法科技伦理审查

《科技伦理审查办法(试行)》对人工智能有关单位提出了合规义务要求,主要包括成立科技伦理(审查)委员会,以及就自主科技伦理审查活动开展监督管理性质的专家复核。服务提供者应考虑算法可能对用户、社会以及应用者自身造成的伦理安全风险。

算法机制机理审核

围绕算法的保密性、完整性、可用性、可控性、隐私性等安全属性,对技术提供者与服务提供者进行边界职责划分,全面审核算法机制机理的安全风险。

外部模型算法产品引入准入审核

对于拟采购的模型算法产品,应建立外部引入的准入机制,评估外部模型算法是否满足公平合理、可解释、诚实可信等安全原则,是否满足相关行业监管合规要求,以及产品安全控制措施是否与产品功能相匹配等。

数据安全和个人信息保护

除一般性的数据安全和个人信息保护要求外,还应重点关注算法中可能处理的人脸、声纹、基因等生物识别信息保护以及自动化决策机制。

用户权益保障

应确保人工智能服务保护用户的知情权、选择权、异议权、公平交易权以及针对未成年人和老年人群体的特定权益等。

知识产权保护

人工智能服务提供者应明确著作权法在AI领域的适用范围,对于训练数据素材、训练数据处理活动、AI输出内容等可能存在版权合法性风险的要素,规范版权风险审查要求、流程和标准。

► AI运营管理

算法备案与安全自评估

根据我国《互联网信息服务算法推荐管理规定》等,具有舆论属性或者社会动员能力的算法推荐服务提供者、深度合成算法服务和生成式人工智能服务提供者应履行算法备案和变更、注销备案手续。详见。

服务透明度

以交互界面提供服务的,应向社会公开适用人群、场合、用途等;向使用者公开服务局限性、模型算法概要、采集的个人信息及用途;以可编程接口提供服务,应在说明文档公开上述信息。

算法安全监测

算法安全监测应覆盖的范围包括信息安全监测、数据安全监测、用户个人信息安全监测和算法安全监测等,以及相关的监测机制运行要求、人员配置、技术配备情况、技术实施情况等,主动评估风险。

安全事件应急处置

针对算法安全事件制定应急预案,建立人工智能应用的风险缓释措施,对安全威胁制定应急方案并开展演练,定期对预案开展审阅更新,以满足最新的算法服务类型、规模等需求。

算法违法违规处置

服务提供者需要明确定义数据使用违规、信息安全违规、用户权益保护违规和算法安全违规等算法违法违规的具体情形,明确针对算法违法违规情形的处置程序和标准。

结语

本文从国际视角介绍了AI治理的全球发展趋势,分析了AI合规与治理工作的重点方向和具体管理工作要点。对于AI技术的应用具体给我们带来了哪些网络安全风险,以及如何通过有效措施应对这些风险,敬请期待本系列文章第二篇《可信AI治理之(二)生成式人工智能网络安全风险及应对》。

本文是为提供一般信息的用途所撰写,并非旨在成为可依赖的会计、税务、法律或其他专业意见。请向您的顾问获取具体意见。

0 阅读:0

安用

简介:感谢大家的关注