在数字化时代,个人数据已成为各大网络平台不可或缺的宝贵资源,尤其在生成式AI技术的迅猛发展中,用户数据更是被视为大模型的“养料”,对其训练和优化起着至关重要的作用。然而,当这些平台利用用户数据进行AI大模型训练时,用户往往面临着无法拒绝或退出的困境。这一现象引发了广泛的社会关注和讨论,南都第八届啄木鸟数据治理论坛发布的《生成式AI用户风险感知与信息披露透明度报告(2024)》(以下简称“报告”)便是对此问题的深度剖析。报告选取了微博、美团、淘宝、小红书、微信、京东、抖音、百度、知乎、携程等十家主流互联网平台作为测评对象,从五个关键维度对平台的信息披露透明度进行了详细测评。结果显示,虽然部分平台如淘宝、携程和抖音在规则中明确告知了用户数据将用于AI大模型训练和优化,并承诺对数据进行安全加密技术处理、严格去标识化且无法重新识别特定个人,但大多数平台在用户数据使用上的透明度仍显不足。具体而言,报告发现,很多平台在用户协议中并未明确提及AI大模型的相关条款,更未具体告知哪些用户数据会被用于AI大模型训练,以及这些数据将提供给哪些第三方公司。更为关键的是,当用户不愿为AI大模型贡献自己的数据时,很多平台并未提供便捷的退出机制。相比之下,一些海外头部平台如领英,在隐私政策中明确提供了用户行使拒绝权的方式,为用户提供了更多的选择权利。这一现象的根源在于,当前很多平台在用户数据使用上缺乏足够的透明度和用户参与度。用户往往只能在接受平台规则的前提下使用服务,而无法对自己的数据使用方式做出选择。这种不平等的地位使得用户在面对平台的数据使用时显得无能为力,只能被动接受。此外,报告还发现,一些平台在提供生成式AI服务的同时,并未明确披露是否将用户数据用于模型训练。如微博便曾公开表示,其训练数据来源于公开发布的内容,不使用任何私密或敏感信息。然而,这一做法并未在平台规则中得到明确体现,使得用户在数据使用上的知情权受到了侵害。
文件硬盘数据销毁
在用户数据成为大模型“免费午餐”的背景下,如何保障用户的知情权和选择权成为了亟待解决的问题。报告建议,互联网平台应给予用户更多的选择权利,提供便捷的退出功能,让用户有权在设置中选择是否同意个人数据被用于模型训练。同时,平台也应加强用户数据使用的透明度,明确告知用户哪些数据将被用于AI大模型训练,以及这些数据将如何被保护和使用。除了用户权益的保障外,AI内容的安全问题也不容忽视。报告指出,国内平台在AI内容标识上采取了较为积极的措施,如小红书等平台会主动监测并为疑似AI内容打上提示标记。然而,在海外互联网平台中,AI内容标识的规范普及程度远不如国内。这一差异使得国内用户在面对AI生成内容时能够更加警觉和谨慎,从而降低了因误信虚假信息而遭受损失的风险。
文件硬盘数据销毁
为了规范AI内容标识的做法,国家网信办已发布了相关征求意见稿和强制性国家标准。这些政策的出台将有助于提高AI内容的安全性和可信度,为用户提供更加安全、可靠的网络环境。同时,政策的实施也将推动平台加强自律和合规意识,提升用户数据使用的透明度和规范性。总之,用户数据被用于AI大模型训练和优化已成为当前数字化时代不可回避的问题。在保障用户权益和推动技术发展的同时,我们应积极探索更加合理、公正的数据使用方式,让用户在享受数字化服务的同时也能充分保护自己的隐私和数据安全。这不仅是平台应尽的责任和义务,也是推动数字化时代健康发展的必然要求。