开栏语
人工智能在促进社会经济发展、加速技术创新的同时,也导致了技术滥用、虚假信息传播扩散加剧等问题,引发社会广泛关注。如何加强人工智能治理成为全球治理的重要议题,各国相继开展人工智能立法,以完善人工智能法律治理体系,防范人工智能潜在风险,确保人工智能安全、可靠、可控。为此,《人民法院报》特开设“人工智能治理规则”栏目,聚焦各国人工智能治理的立法演进和运行实践,探寻其治理特点、立法趋势及价值启示。敬请关注,欢迎投稿。
人工智能的法律治理是数字时代全球治理体系的关键环节。国际社会围绕技术伦理、风险防控与规则构建展开全面探索,已形成涵盖国际组织与主权国家的复合治理格局。联合国通过决议和宣言等规范形式为全球人工智能治理提供框架和方向,欧盟、美国、英国则各自展开风险分级、伦理审查、灵活监管和国际合作等法律路径探索。这些法律实践反映出国际社会对人工智能技术挑战的应对态度以及为构建包容普惠的人工智能法律治理体系作出的共同努力。
图源视觉中国
联合国:安全框架与能力建设
联合国在人工智能法律治理领域形成了以安全框架与能力建设为核心的模式,该模式以互补性协同的动态平衡形式助力完善全球治理体系。
2024年3月,联合国大会通过了《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》决议。该决议在全球层面为人工智能法律治理确立规范框架,强调技术发展需以安全、可靠、普惠作为核心基调。其将人工智能定位为加速实现联合国可持续发展目标的关键工具,呼吁各国通过技术援助、数据共享等手段缩小技术鸿沟,明确要求在公共卫生、气候行动等关键领域优先部署符合伦理标准的人工智能系统。
同年,联合国大会通过由中国主提的加强人工智能能力建设国际合作决议,该决议坚持以人为本、智能向善、造福人类的原则,倡导营造开放、公平、非歧视的市场环境,支持联合国发挥中枢协调作用,旨在增强发展中国家在人工智能领域的技术实力与治理话语权,标志着全球治理重心向技术普惠与公平性转向。该决议聚焦人工智能能力建设,特别关注语言文化多样性保护、算法偏见消除及弱势群体权益保障,强调通过能力建设弥合数字鸿沟,以国际规范助力《2030年可持续发展议程》落实。
联合国“安全框架+能力建设”的法律治理路径避免了刚性约束可能引发的技术霸权争议,并通过激活多边机构的协调功能,整合全球治理的碎片化格局。然而,发达国家对核心技术的垄断性控制与发展中国家主权诉求间的矛盾,科技巨头的商业利益与公共利益的动态博弈需进一步通过规则更新予以平衡。
欧盟:风险分级与伦理审查
欧盟以《人工智能法》为核心治理框架,通过构建风险分级管控与伦理审查并行的双重机制,在维护安全底线的同时为人工智能技术创新保留发展空间。
欧盟《人工智能法》作为全球首部促进人工智能安全发展的区域性国际法律文件,驱动该领域治理由行业自律迈向规范规制的新阶段。该法以“风险分级”为核心,将人工智能技术依据社会影响程度划分为不可接受风险、高风险、有限风险与最小风险四个等级,对应采取差异化防控策略。该法明确禁止不可接受风险类人工智能(如社会评分系统等)的开发与部署,仅保留在反恐、搜寻失踪人员等例外情形下的受限使用;要求高风险类人工智能(如关键基础设施系统等)的开发者实施严格的数据治理、人工监督及第三方认证,保证全生命周期监管;通过透明度标识与强制标注的方式对聊天机器人等有限风险类人工智能进行监管,并需标明内容为人工智能生成;而对垃圾邮件过滤等最小风险类人工智能则采取宽松管理以鼓励创新。此外,欧盟特别设立人工智能办公室,负责协调成员国跨境司法协作、制定技术评估标准,并在必要时实施制裁措施。
实践中,伦理审查是确保人工智能技术发展符合道德规范和人权保护要求的必要方式。《人工智能法》将《人工智能伦理指南》中的相关原则转化为法律义务,以伦理标准的形式填补技术短板。该法规定开发者需要在算法设计阶段嵌入伦理影响评估框架,考虑技术应用对弱势群体的潜在歧视风险。同时,医疗、司法等敏感领域人工智能系统需接受伦理审查,确保技术应用符合道德标准。
虽然《人工智能法》建立了风险分级和伦理审查的技术体系,但其严格的义务标准与惩罚条款也引发对欧洲人工智能产业竞争力的质疑。一是对于通用人工智能的系统性风险判定主要基于动态算力指标,但技术迭代速度可能超越立法进程,致使规制的时效性欠缺;二是当自主算法带来非预期危害时,无法依据当下法律判定开发者与部署者的主观心态;三是由透明度审查所带来的技术壁垒加剧了算力差距,造成人工智能治理鸿沟的深化。
美国:联邦与州双轨架构
美国形成了联邦与州相协同的双轨规范架构,通过分散式立法、行政指引与司法判例共同构建动态人工智能法律治理体系。
在联邦层面,2021年1月,美国正式颁布了《2020年国家人工智能倡议法案》。该法案从国家层面推动可信人工智能系统在公共和私营部门的开发与应用,旨在进一步巩固美国在人工智能研发领域的地位。2022年,美国政府发布《人工智能权利法案蓝图》,以政策文件的形式确立了人工智能技术应用的五项原则,为公私主体划设技术伦理边界,确保人工智能技术的开发和应用符合社会需求,并保护公民权利。2025年,美国总统特朗普签署《消除美国人工智能领导地位的障碍》行政令,优先考虑以监管最小化路径巩固美国在全球人工智能技术竞争中的优势,解除对私营部门开发和部署的多重限制,以加速人工智能技术的创新突破,但此举可能削弱对技术的伦理约束与风险防控效能。
在州级立法浪潮中,犹他州与科罗拉多州率先实现突破。2024年颁布的《犹他州人工智能政策法》规定了使用生成式人工智能的披露制度,通过人工智能政策办公室统筹制定标准,并设立技术沙盒实验室推动公私协同研发。同年颁布的《科罗拉多州人工智能法》则聚焦高风险人工智能系统的算法歧视治理,明确将就业、信贷、教育等关键决策场景纳入监管范畴,在涉及与人工智能系统交互的消费者保护领域建立包含影响评估、数据溯源、算法解释的透明度义务框架。至此,人工智能州级法律治理呈现出三大转型态势:从软性指南转向硬性约束、从普适原则转向场景规制、从分散治理转向机构化运作。
美国的双轨法律治理框架强调“弱监管”原则下的行业自律,各州监管力度与重点差异显著——既通过弹性监管为本土企业创造制度红利,又借助州际竞争筛选最优治理方案,但立法权分散也引发了标准互认的困境与跨国规制冲突。如何在激发地方创新动能的同时把控整体风险,逐渐成为美国人工智能法律治理体系优化的核心议题。
英国:灵活监管与国际协同
英国在人工智能法律治理领域采取“灵活监管—国际协同”的复合型体系,主要以动态响应型监管模式与国际合作协同的方式进行。
2023年,英国发布的《支持创新的人工智能监管方式》提出“按比例监管”原则,并确立安全性和稳健性、透明度和可解释性、公平性、问责制和管理、可竞争性和补救性五大基准。该政策突破刚性风险分级模式,要求监管机构基于技术应用场景的动态风险评估实施差异化监管,以形成兼具技术包容性与市场规范性的治理生态。正由议会审议中的《人工智能(监管)法案》不仅提出创设具有跨部门协调职能的人工智能管理局,同时主张建立包含技术预见、经济风险评估、监管沙盒在内的全周期体系,代表英国人工智能治理正从行政政策向法律规范推进。
英国在探索国内法律治理的同时积极通过多边机制参与构建人工智能国际协同的治理网络。2023年11月,在英国举办的首届人工智能安全峰会就《布莱奇利宣言》达成共识,对此,英国正推动建立涵盖模型分级、应急响应、技术伦理的治理体系,搭建应对前沿人工智能风险的国际评估框架。
英国的人工智能法律治理模式注重弹性监管,同时依托国际标准互认与风险共治机制助力实现协同治理,其核心价值在于探索兼容技术主权与国际合作的可持续发展路径。然而,灵活监管模式高度依赖监管机构的技术预判力与场景适配力,动态风险评估机制也受限于技术的非线性演进,存在治理响应滞后的风险。
整体而言,全球人工智能法律治理范式呈现出风险分级精细化、责任分配严格化以及国际合作务实化的趋势。国际社会在人工智能法律治理上的差异虽对治理效能带来一定挑战,但也为形成多层次互补的全球人工智能法律治理体系提供新思路。未来,全球人工智能的法律治理需重点关注如何构建算法可解释性的跨国跨域司法共识框架,突破“黑箱”等技术难题所导致的归责困境。同时,可选择弥合技术代际鸿沟、深化规则互认及构建数据共享平台等形式,趋避因规范迭代滞后而引发的原、次生风险叠加的治理难题。
来源:人民法院报·8版作者:黄珺珺 徐璟航(作者单位:最高人民法院司法案例研究院;浙江省高级人民法院)