中国有句俗话,叫作“眼见为实”。意思就是自己亲眼看到的人或物应该就是真实的了。然而随着科技的不断发展进步,竟会出现让大家意想不到的事,让你“眼见”也未必“为实”。
比如,上个月曾一度上过热搜的福州郭先生,仅仅10分钟就被“自己亲眼所见的“朋友””骗走430万。自己的好朋友,又是视频通话,也算是“亲眼”见到了对方,怎么还会被骗呢?
事情发生在今年的4月20日。福州的郭先生是一家科技公司的法人代表。临近中午下班时间,郭先生收到自己朋友的微信视频电话,短暂的寒暄后,郭先生的这位朋友告诉他,自己这段时间在外地投标,需要公对公账户账户过账,想借用下郭先生公司的账户走一下账。
大家都是生意人,一些搞投标生意的朋友需要验资,经常借用别人公司账户走一下账也是常有的事,况且对方还是自己的好朋友,郭先生自然就答应了对方。好友向郭先生要了银行卡号,不一会就声称已经把投标款打到了郭先生公司的账户上,同时还附了一张银行转账的截图。
在郭先生看来,这本身就是一件很简单的事情,何况对方还提供了转账截图。基于对朋友的信任,郭先生也就没有去核实是否该款项真的有到账,就立即将朋友所说的430万投标款分两次转给了对方。转完款项后,郭先生随手给朋友打了电话,告知对方事情已经办妥时,没想到朋友竟然毫不知情。
这让郭先生着实吓了一跳。不是刚刚才视频通过话吗,怎么一下就不记得了呢?在视频通话中郭先生可真真切切的认得,这就是他朋友的面孔和声音,怎么不到十分钟时间,朋友就对这事连一点印象都没有了呢?
原来,郭先生遭遇了当下最新型,最有科技含量的AI换脸诈骗。AI换脸,顾名思义,就是指通过AI人工智能技术,把别人的脸换成自己的脸。相关数据显示,AI换脸脸部表情自然,效果逼真,整个过程只需要通过一张照片,用AI技术可以在软件上使用他人的照片代替需要换脸的人物,即可实现换脸成功。
由于AI换脸的“真实性”很高,用在诈骗方面,很容易让受害者信以为真。福州郭先生的事情发生没多久,安徽的何先生也遭遇了AI换脸的骗术,仅仅只用不到10秒的时间,何先生就被骗子骗走132万元。
5月22日,安徽安庆的何先生接到朋友的视频电话,让他帮忙转一笔账,说是临时急用。转款数目为132万。9秒之后,他的这位朋友以在开会”为由,迅速挂断了电话,还称微信和电话不能说,加一下QQ”。因为有视频通话在先,何先生放松了警惕,加上打的是视频电话,又是熟人,没多想就转账了。
IT技术人员透露,更有黑客专门研发AI实时换脸工具,据说这项技术难度并不大,和现在我们手机用的美颜技术差不多是一个道理。他们利用漏洞盗取受害人好友的微信账号,通过有些人喜欢用本人作为头像或在朋友圈晒自己和家人照片的特性,获取照片,再通过AI换脸变成受害人的亲友与受害人进行交流,以达到骗钱的目的。
AI换脸技术开发的本意是为了影视娱乐,游戏开发等领域,意在给客户更为真实的观赏体验。但把AI换脸术用在诈骗上,尤其对方是对智能机不够熟悉的老人身上,真是令人防不胜防。
犯罪分子利用AI 技术,可以伪装成任何一个人,甚至还可以模仿伪造他人的声音和视频,冒充你的好友和亲人,使受害者放松警惕,以达到他们的诈骗目的。面对如此“以假乱真”的诈骗,我们该怎么办呢?
1.不要轻易用本人或家人的照片作为自己的头像,不要轻易在自己朋友圈内晒本人及家人的真实照片。很多人喜欢用自己照片作头像,或在朋友圈晒出自己或家人的生活照片,这无疑给犯罪分子提供了AI换脸的资源。
2.AI 生成的人脸或表情虽然已经很真,但我们在与对方视频的过程中,可以要求对方匀速展现全身特征,再观察其人脸是否出现消失或特殊变化,以检测是否存在面部置换的可能性。
3.陌生链接不要点、陌生软件不要下载、陌生好友不要随便加、不明二维码不要随便扫。不要向陌生人开启手机屏幕共享。
4.对于紧急转账、提供大额保证金或其他不寻常要求,要保持警惕,并仔细核实真实性。建议将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。
此外,除了视频电话诈骗外,某些电商平台为了引流节省直播成本,也会利用AI技术伪装成杨幂、成龙、刘德华等一线大牌明星,利用“明星效应”打爆产品,实现成功带货。
总之,和你视频通话的人,甚至你观看的明星带货直播,可能都不是他们本人,小心有诈哦。