她又被造黄谣,不能再忍了

向萍说娱乐 2024-09-11 11:42:15

最近,微博上一封求救信引起了人们的注意。

一个IP显示为韩国,名叫nosunae_520的账号,称自己深受DeepFake(换脸软件)的侵害。

DeepFake是这些年十分流行的AI伪造技术。

我们经常在网上看到的将明星AI换脸,运用的就是这样的技术。

而这个女孩遭遇的,是自己的脸出现在成人视频当中。

并且,她在博文中写道:

现在韩国的情况太严重了,无法预测有多少女性因DeepFake而受害。

随着此事热度的不断上涨,人们惊恐地发现,一件可怕的AI换脸性丑闻正在发生。

这个事件时间跨度之长,涉及范围之广也已经远超人们的想象,被称为「N号房2.0」。

更要命的是,当你了解整个事件之后就会发现,下一个被换脸的人可能就会是自己。

如此可怕的事实,简直让人不寒而栗。

也许很多人没有意识到,别有用心的AI换脸有多么可怕。

高分英剧《真相捕捉》曾展现了DeepFake的可怕之处。

一个英国军人被控告殴打并绑架了一名女性,证据是一段街道上的监控录像。

可经过调查却发现,这个视频是那名女性受害者用DeepFake制作的。

如果调查不够仔细,一个无辜之人就很可能被投入牢狱之中。

将这种转白为黑的手段运用在性犯罪事件中,其带来的后果简直无法想象。

nosunae_520并不是唯一一个在微博发出求救的人。

就在她发声的两天后,另一个IP为韩国的微博账号也写下了相同的内容。

中国也不是她求救的第一个海外国家。

全球各类社交平台上,她们都发表过相似的文字。

之所以要在海外求助,因为在韩国国内,这件事情并没有得到应有关注。

实际上,早在今年5月,韩国就发生过一起被称为「N号房2.0」的案件。

几名首尔大学的校友,在过去三年间,利用DeepFake将女性的头像植入成人视频中。

之后再在名为「电报」的加密软件上组建群组,进行传播获利。

进入这个群组的条件,就是拿出身边的5个女性熟人的换脸视频。

成功进入群组后,成员们就可以免费使用群里的制作软件,然后开始制作收费视频再向外输出。

如此一来,就完成了一套自产自销且传播速度很快的产业链。

这些加害者,往往会从自己身边的人下手。

同学、老师、同事,甚至是自己的母亲、姐妹都是他们的目标。

他们甚至还恶劣地根据受害者的身份,将私密群聊分为「妈妈房」「姐妹房」「护士房」……

各种群组

更令人气愤的是,当被发现后,他们还嚣张地直接威胁受害者。

而受害者报警后,警方只是说「会调查」然后不了了之。

法律途径走不通,受害者便转向网络求助。

可她们收到的,却是删帖禁言和更过分的言语羞辱。

忍无可忍的受害者们找到了当初卧底调查N号房的「追踪团·火花」的成员。

这个名叫恩智(音译)的成员再次化身卧底,一举曝光了这个团伙,也将一组可怕的数据公之于众——

仅一名加害者,就在3年时间里针对包括未成年人在内的48名受害者制作了约400个视频,并传播了约1700个视频。

本以为,这次事件的爆发能够结束这样恶劣的事情。

没想到,反而愈演愈烈。

8月,韩国一名初三男生了解到,自己学校依旧有DeepFake成人视频受害者。

于是他建立了一个「受害者学校地图」的网站。

结果,短短的2天内,这个网站中就有超过200所学校被标记。

这些学校不仅有大学,还包含了大量中学与小学。

但是韩国警方与媒体并没有给出过多的关注。

他们的理由,一是软件IP地址在国外难以追查,二是「不方便公开加害者信息」难以立案。

直到数字井喷式的增长,再加上大量韩国女性在外网求助,才引起政府重视。

调查数据显示,AI换脸成人视频的受害者数量已经达到22万人,而韩国去年一整年的出生人口是23万人。

在所有受害者中,青少年的占比高达73.6%。

而大部分的加害者,也是未成年人。

近年来,用AI换脸对女性造黄谣,愈来愈频繁。

2017年,就有人将女星盖尔·加朵的脸嫁接在一个成人电影女演员的身上。

在「DeepFake Maker」网站上,截至目前已经有4000多位名人被AI换脸为成人视频的主角。

其中包括了斯嘉丽·约翰逊、娜塔莉·波特曼、泰勒·斯威夫特等欧美女星。

还有一众韩国女爱豆。

近日,韩国四大娱乐公司之一的JYP公司,还专门针对旗下女艺人被恶意AI换脸发布了官方通告,称要诉诸强制法律手段。

2021年,一位台湾知名网红被曝出,用AI换脸技术将许多台湾艺人变成成人影片的女主角后贩卖盈利。

其中就包含蔡依林、陈意涵等知名艺人。

内娱也有大批受害者。

杨幂、迪丽热巴、赵丽颖也多次被人发现成为AI换脸的对象。

而这一次的事件,无论是受害规模还是技术精度,都大幅提升。

早些年,那些粗糙的换脸视频,大家基本上都能一眼辨真假。

但现下越来越精进的技术,普通人已经难以用肉眼分辨。

日剧《相棒》有一集,就将话题对准了DeepFake技术的以假乱真。

一名国防技术顾问在家中卧室被杀害。

现场的电脑中有一段他与一名女性的「性爱录像」。

而这位女性在面对警察的调查时,坚称自己从未与被害者发生过关系,并能够给出完美的不在场证明。

但她依旧无法证明,视频中的女性不是自己。

因为一切都太真了。

直到后面凶手自己承认,警方才知道这是一段用DeepFake制作的视频。

不仅如此,此次事件的受害者基本上都是普通人。

以前,如果是明星受到侵害,还能借助公众影响力和经纪公司的力量为自己维权。

相反,普通人就很难拥有这样的资源。

而且,随着社交网络的发展,个人信息很容易就能被他人获取,更不用说图片这样最唾手可得的材料。

想想《黑镜》第六季中的一集。

女主只要使用了智能手机等联网设备,AI就可以立马根据大数据复刻她的人生。

更何况,AI换脸成人视频的犯罪成本太低了。

只要一张正面的照片、成熟的软件就可以完成一个逼真的视频。

随着技术的不断更新,现在甚至连声音都可以伪造。

电影《保你平安》中,有这样一句台词:

当你说一个女人是小姐的时候,不管她是不是,她都已经是了。

过去,仅仅是文字、语言上的造黄谣,就能给一名女性带来毁灭般的伤害。

如果再加上可以眼见为实的「证据」呢?

2022年,杭州警方就破获了一起涉黄AI换脸案。

在犯罪者的供述中,就提到了有不少人拿着自己暗恋女生的照片来制作换脸视频。

生活在互联网时代的我们,在微博、朋友圈、QQ空间中都留下过自己的照片与信息。

谁都不能保证,自己会不会就是下一个受害者呢?

除开一个个发生的具体案件本身,还有一个事情值得我们警惕。

那就是人们对待此事的态度。

这个事件中,加害者们一直是肆无忌惮的。

他们将这种行为看作是一种娱乐方式,只是为了有趣,开个玩笑而已。

随便说上无数个理由,来为自己的行为找借口。

被发现后,他们甚至还会变得更加兴奋。

因为比起视频中的假人,他们似乎更喜欢看当事人的真实反应。

就算真的被警察盯上,他们也会有恃无恐地叫嚣自己会卷土重来。

反而是那些受害者每日活得战战兢兢,再也不敢在网上公开任何自己的照片与信息。

当韩国 DeepFake事件彻底爆发后,大多数人的态度当然是愤怒与恐惧。

但也有不少人因为是「AI换脸」而不以为然。

甚至连一部分韩国警方也持有这样的态度。

有受害者在网上表示,当她去寻求警方帮助时就受到反问:

「既然不是你本人,那又有什么关系?」

在他们看来,这种没有在实体上造成侵害的行为,没必要大惊小怪。

这种态度就像《黑镜:圣诞特别篇》的男主。

他作为一名用摄像头远程操控他人的「恋爱导师」,因为偷窥被警方逮捕。

面对这项罪名,他辩解道:

我只是为一些孤独的男人提供了一项服务。

但要知道,如同语言霸凌也是一种暴力,数字侵犯也是一种性凌辱。

还有人曾试图将这种暴行用作遮羞布。

之前在景甜私密视频泄露事件中,有人「好心」提议:

不如将这个视频当作是AI换脸,这样就不会那么难受。

说出这种话的人,显然没有意识到事情的严重性。

且先不说,身为受害者的景甜为什么要主动粉饰自己遭受的伤害。

就单说AI换脸本身,有谁能保证当这种事情形成规模后,会不会滋生实质的侵害?

反正在这次韩国事件中,不少加害者们直接公开了受害者的真实身份、家庭住址。

如果这些信息真的被那些心怀不轨的人拿到,后果不堪设想。

再进一步说。

如果有人在实施真实侵害后,反过来利用这种理由掩盖自己的罪行。

那到时候会发生怎样的事情,我甚至连想都不敢想。

0 阅读:0

向萍说娱乐

简介:感谢大家的关注