你是否想过,有一天你所熟知的公众人物,在网络上说着你从未听过的话,做着你意想不到的事?
科技的进步为我们带来了便利,但也滋生了新的隐患。
AI换脸技术,这把双刃剑,正逐渐向我们展现它令人担忧的另一面。
全国政协委员、中国煤矿文工团团长靳东,在今年的两会上,就针对AI换脸技术的滥用问题提出了自己的建议,这背后究竟隐藏着怎样的故事?
2024年3月5日,全国政协小组讨论会上,靳东委员的一席话引起了广泛关注。
他指出,一些观众因AI换脸视频被骗,性质恶劣,亟需建立更完善的规则。
这并非空穴来风,“真假靳东”的事件早已在网络上引发热议,一些不法分子利用AI技术,将靳东的形象移花接木到虚假视频中,进行诈骗等非法活动,给不少喜爱他的观众带来了经济损失和精神困扰。
靳东的担忧并非个例。
演员刘晓庆也曾遭遇类似的困扰。
3月3日,一位网友向刘晓庆求证,称在微信视频号上看到了许多AI生成的视频,画面和声音都像她,但却并非本人。
刘晓庆本人也对此感到震惊,并在社交平台上回应:“天哪,我点进去看了一下,画面是我,声音很像我,但不是我!
这是怎么做到的?
大家以后不会搞不清楚哪个才是真的我了吧?
我在各个平台都叫刘晓庆!
”
除了刘晓庆,古天乐和林峯也成为了AI换脸技术的受害者。
近日,某线上游戏平台利用AI技术合成了带有赌博性质的代言视频,视频中“古天乐”和“林峯”的讲话风格与其本人十分相似,甚至刻意模仿了古天乐的“港普”口音。
3月5日,两位艺人的经纪公司相继发布声明,澄清从未与该平台合作,并提醒公众谨防上当受骗。
从恶搞企业家雷军到伪造医生张文宏的音视频为自己带货,AI换脸技术的滥用已经从娱乐恶搞发展到严重的违法犯罪行为。
甚至有不法分子利用此技术进行诈骗,令人防不胜防。
过去一年,AI深度合成音视频侵权现象愈演愈烈,此前,刘德华的电影公司也曾发布声明,提醒网民警惕伪造刘德华声音的AI语音合成技术骗局。
令人惊讶的是,实现AI深度合成音视频并非难事。
在一些购物平台上,只需花费几十元,即可定制AI深度合成名人音视频。
这种低门槛的技术服务,无疑为不法分子提供了便利。
那么,在网络购物平台使用AI深度合成技术制作出售名人的音视频,是否触犯了相关法律呢?
专家指出,相关法律法规明确规定,未经授权,不得深度合成制作发布他人信息。
网店接单AI深度合成制作名人视频,已属于侵权行为,并应承担相应的法律责任。
中国计算机学会计算机安全专业委员会委员吕延辉表示:《中华人民共和国民法典》规定,自然人享有肖像、声音等权益,任何组织或个人利用信息技术伪造都是侵权行为。
2023年,国家网信办、工信部、公安部联合发布了《互联网信息服务深度合成管理规定》,要求任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息。
2024年网信办发布的《人工智能生成合成内容标识办法(征求意见稿)》也提出,对AI生成合成内容要进行标识,以便公众识别和区分,防止误导性信息传播。
针对网店使用AI深度合成技术制作名人视频的法律责任,北京航空航天大学法学院副教授赵精武提到了国内已审结的首例AI生成声音人格权侵权案。
该案中原告是一位配音演员,其声音未经授权被AI生成后对外出售。
法院最终认定被告的行为构成侵权,这为类似案件提供了判例依据。
在该案中,法院认为,我国《民法典》已将自然人的声音视为一种具有人身专属性的人格权益,任何未经授权的AI生成和使用都构成侵权。
AI换脸技术作为一种新兴科技,其发展和应用仍处于探索阶段。
如何平衡技术创新与安全监管,如何在保护个人权益的同时,避免技术滥用,这将是一个长期而复杂的问题。
在享受科技进步带来的便利的同时,我们也需要警惕其潜在的风险,共同努力,营造一个安全、健康的网络环境。
面对日益逼真的AI换脸技术,我们该如何辨别真伪?
又该如何保障自身的权益不受侵犯?
这值得我们深思。