阅读此文之前,麻烦您点击一下“关注”,既方便您进行讨论和分享,又能给您带来不一样的参与感,感谢您的支持。
文|奇之慧
编辑|奇之慧
科技的发展带给我们极大的便利,但在其背后,也给我们带来了极大的风险,多家媒体报道,就有很多人因为科技而被骗巨额财产。
骗子利用AI技术,不仅可以改变在互联网上的声音,甚至可以进行“换脸”,以此来获得信任度。
最终导致有人在十分钟的时间内,就被骗走430万的巨额财产,因此在生活中,我们一定要谨防这三种“AI骗术”!
AI换脸诈骗
相信很多人在被人借钱的时候,都会验证一下对方的信息,尤其是通过互联网借钱,而不是面对面借钱。
如果能够证明对方的身份,确定是自己的亲戚朋友,有些人才会愿意将钱借给对方,甚至有些人还需要知道借钱是用来干什么的,这样也可以防止自己借出去的钱打水漂。
不过通过互联网借钱最重要的其实还是验明对方的身份,防止受到不法分子的诈骗,而大多数人验证身份的方式,往往都是打电话或者直接打视频电话。
毕竟只有看到对方的真实面容,才能确定对方到底是谁,当然很多人认为,只有面对面借钱才能保证对方的身份。
可是总有意外情况或者紧急的事情出现,因此一些没有防备的人在网上进行验明身份之后,就会直接将钱借给对方。
根据光明网的报道,在福州就有一位郭先生就经历过这样的事情,由于没有面对面验证对方的身份,导致自己在十分钟之内被诈骗430万元。
原来有一位号称是郭先生朋友的人向郭先生借钱,表示自己公司需要走账,需要430万元,由于郭先生和这位朋友的关系很好,所以郭先生很快就相信了对方的说辞。
不过该有的过程还是要有的,随后郭先生要求视频通话验证对方的身份,这也得到了对方的同意。
虽然视频通话的时长只有九秒就被挂断,对方表示正在开会,但这已经让郭先生深信不疑,确定那九秒的视频通话中出现的人就是自己的朋友。
因此在骗子层层的套路下,郭先生将自己430万元借给对方进行走账,可结果这笔钱杳无音讯。
当郭先生寻找这位朋友还账的时候,对方却表示自己根本就不知道有这回事,这个时候郭先生才意识到自己上当受骗了。
经过警方的调查发现,骗走郭先生430万的人,利用的方法就是“AI换脸”技术,因此在郭先生验证对方身份的时候,才没有被郭先生发现问题。
因为在那九秒的视频通话中,对方的长相确实就是和郭先生的朋友一样,可郭先生不知道的是,他看到的其实是高科技AI生成的一张人脸。
通过“AI换脸技术”,在短短的十分钟之内,就有人被骗走430万元,可见这项技术的发达,让郭先生无法辨认屏幕里的到底是不是自己的朋友。
除了“AI换脸”诈骗,其实还有其他的诈骗方式也非常容易让人上当受骗。
AI语音诈骗
AI智能高科技除了可以“换脸”之外,其实还可以更换一个人的声音,就好像是一个变声器一样,将一个人的声音变成另一个人的声音。
因为有人多人都喜欢用电话联系,尤其是一些老一辈的人,他们并不习惯使用微信等软件,因此“AI换脸”技术对这些人不管用。
毕竟他们都不使用视频通话,可是这并不能代表他们就不会被高科技诈骗技术所影响,因为还有骗子会利用AI技术将自己的声音变成其他人的声音。
根据极目新闻的报道,在湖北孝感市,有一位张婆婆就受到了AI变声的诈骗,原来骗子利用老人的孙子,编造一些事情来诈骗张婆婆。
骗子通过AI变声,将自己的声音变成了张婆婆的孙子小万的声音,给张婆婆打去电话,表示自己不小心摔坏了别人的手机,需要赔偿两万元,并表示不赔钱就要报警抓自己。
为了不让自己的孙子进警察局,慌张的张婆婆很快就上当受骗,将两万块钱转给了骗子,她不知道的是,自己听到孙子打电话的声音,其实也是高科技AI声称的声音。
当孙子回家后,经过询问,张婆婆才知道自己上当受骗,在第一时间选择报警,经过警方的侦查,确定这是一场骗子利用AI变声技术来实施的诈骗行为。
因此AI技术不仅会改变一个人的样貌,甚至就连声音也会改变,一旦被骗子盯上,可以说是防不胜防。
不过除了AI换脸变声之外,还有一种新型的诈骗手段。
AI情感诈骗
不知道各位网友在浏览各种视频的时候,有没有发现有部分视频会有一种提示,那就是“视频疑似AI生成”的字样。
其实这就是一些人利用AI技术,自动生成一些人物,并且很多时候这些人物的形象、动作等都和真人没有太大的差别。
也正是因为AI技术的强大,就有人利用这一点来实施新型的诈骗手段,那就是利用AI技术,生成一些长相漂亮的“小姐姐”。
有一些单身的男人在看到如此漂亮的“小姐姐”之后,不由得开始心动,便开始留言等行为,而这些人就是骗子的“猎物”。
骗子伪装成AI生成的漂亮“小姐姐”,利用各种花言巧语来牵动单身男人的内心,从而事实“情感诈骗”。
毕竟现在的社会上,有很多人都处于单身状态,并且希望自己能够找到合适的另一半,因此也会在网上进行筛选。
新民晚报就曾报道过,一位刘先生就被AI生成的美女所吸引,并很快确定了恋爱关系,随后便陷入“幸福的恋爱生活”当中。
在这期间,刘先生为对方花了不少钱,经过一段时间下来,刘先生为其花费了二十万左右,然而这个时候他们双方还没有进行线下见面,仅仅只是在网上联系。
越发觉得事情的不对,刘先生经过很长时间才发现自己上当受骗了,和自己谈了这么长时间的恋爱,而对方只是骗子利用AI生成的美女在和自己聊天。
可以说这真的是防不胜防,其实不仅仅是这些诈骗手段,也不单单是利用“朋友、亲人、情感”等诱因,其实对于骗子来说,诈骗的手段多种多样。
只不过骗子会根据不同的人群来选择不同的手段,他们根据不同人群的不同需求,来抓住他们的内心,从而骗取他们的钱财。
而AI就是他们的辅助手段,在验证身份上,让受害者降低了防范意识,高超的技术让他们误认为,互联网后面的人就是自己的“朋友”或“家人”。
由于AI技术的强大,很多人都无法分辨这到底是真实的还是虚假的,最终在骗子的套路下,一步步走上了绝路。
不过还有很多人认为,自己不可能上当受骗,其实他们也只是了解这些诈骗手段而已,一旦骗子利用更加先进的诈骗手段,很难保证不被骗。
因此在生活中,只要是涉及到金钱交易的,一定要谨慎,有条件的一定要当面交流,避免被网上的虚假AI技术所迷惑。
结语
科技给我们的生活带来了便利,但也给骗子们带来了方便,我们不能改变骗子,只能自己提高防范意识,谨防上当受骗。
[免责声明]文章描述过程、图片都来源于网络,此文章旨在倡导社会正能量,无低俗等不良引导。如涉及版权或者人物侵权问题,请及时联系我们,我们将第一时间删除内容!如有事件存疑部分,联系后即刻删除或作出更改。
信息来源
【1】光明网:《警惕!AI诈骗在全国爆发 有人10分钟被骗走430万》
【2】极目新闻:《警惕AI语音新骗局!3人炮制“孙子”电话诈骗老人》
【3】新民晚报:《警惕网络诈骗新套路 用AI生成“小姐姐”在短视频平台引流….…》
但为提升文章可读性,细节可能存在润色,请理智阅读,仅供参考!