10分钟被骗430万!AI诈骗在全国爆发,这三种“套路”一定要注意

心灵古迹 2025-03-04 15:23:19

阅读此文之前,麻烦您点击一下“关注”,既方便您进行讨论和分享,又能给您带来不一样的参与感,感谢您的支持。

文|奇之慧

编辑|奇之慧

科技的发展带给我们极大的便利,但在其背后,也给我们带来了极大的风险,多家媒体报道,就有很多人因为科技而被骗巨额财产。

骗子利用AI技术,不仅可以改变在互联网上的声音,甚至可以进行“换脸”,以此来获得信任度。

最终导致有人在十分钟的时间内,就被骗走430万的巨额财产,因此在生活中,我们一定要谨防这三种“AI骗术”!

AI换脸诈骗

相信很多人在被人借钱的时候,都会验证一下对方的信息,尤其是通过互联网借钱,而不是面对面借钱。

如果能够证明对方的身份,确定是自己的亲戚朋友,有些人才会愿意将钱借给对方,甚至有些人还需要知道借钱是用来干什么的,这样也可以防止自己借出去的钱打水漂。

不过通过互联网借钱最重要的其实还是验明对方的身份,防止受到不法分子的诈骗,而大多数人验证身份的方式,往往都是打电话或者直接打视频电话。

毕竟只有看到对方的真实面容,才能确定对方到底是谁,当然很多人认为,只有面对面借钱才能保证对方的身份。

可是总有意外情况或者紧急的事情出现,因此一些没有防备的人在网上进行验明身份之后,就会直接将钱借给对方。

根据光明网的报道,在福州就有一位郭先生就经历过这样的事情,由于没有面对面验证对方的身份,导致自己在十分钟之内被诈骗430万元。

原来有一位号称是郭先生朋友的人向郭先生借钱,表示自己公司需要走账,需要430万元,由于郭先生和这位朋友的关系很好,所以郭先生很快就相信了对方的说辞。

不过该有的过程还是要有的,随后郭先生要求视频通话验证对方的身份,这也得到了对方的同意。

虽然视频通话的时长只有九秒就被挂断,对方表示正在开会,但这已经让郭先生深信不疑,确定那九秒的视频通话中出现的人就是自己的朋友。

因此在骗子层层的套路下,郭先生将自己430万元借给对方进行走账,可结果这笔钱杳无音讯。

当郭先生寻找这位朋友还账的时候,对方却表示自己根本就不知道有这回事,这个时候郭先生才意识到自己上当受骗了。

经过警方的调查发现,骗走郭先生430万的人,利用的方法就是“AI换脸”技术,因此在郭先生验证对方身份的时候,才没有被郭先生发现问题。

因为在那九秒的视频通话中,对方的长相确实就是和郭先生的朋友一样,可郭先生不知道的是,他看到的其实是高科技AI生成的一张人脸。

通过“AI换脸技术”,在短短的十分钟之内,就有人被骗走430万元,可见这项技术的发达,让郭先生无法辨认屏幕里的到底是不是自己的朋友。

除了“AI换脸”诈骗,其实还有其他的诈骗方式也非常容易让人上当受骗。

AI语音诈骗

AI智能高科技除了可以“换脸”之外,其实还可以更换一个人的声音,就好像是一个变声器一样,将一个人的声音变成另一个人的声音。

因为有人多人都喜欢用电话联系,尤其是一些老一辈的人,他们并不习惯使用微信等软件,因此“AI换脸”技术对这些人不管用。

毕竟他们都不使用视频通话,可是这并不能代表他们就不会被高科技诈骗技术所影响,因为还有骗子会利用AI技术将自己的声音变成其他人的声音。

根据极目新闻的报道,在湖北孝感市,有一位张婆婆就受到了AI变声的诈骗,原来骗子利用老人的孙子,编造一些事情来诈骗张婆婆。

骗子通过AI变声,将自己的声音变成了张婆婆的孙子小万的声音,给张婆婆打去电话,表示自己不小心摔坏了别人的手机,需要赔偿两万元,并表示不赔钱就要报警抓自己。

为了不让自己的孙子进警察局,慌张的张婆婆很快就上当受骗,将两万块钱转给了骗子,她不知道的是,自己听到孙子打电话的声音,其实也是高科技AI声称的声音。

当孙子回家后,经过询问,张婆婆才知道自己上当受骗,在第一时间选择报警,经过警方的侦查,确定这是一场骗子利用AI变声技术来实施的诈骗行为。

因此AI技术不仅会改变一个人的样貌,甚至就连声音也会改变,一旦被骗子盯上,可以说是防不胜防。

不过除了AI换脸变声之外,还有一种新型的诈骗手段。

AI情感诈骗

不知道各位网友在浏览各种视频的时候,有没有发现有部分视频会有一种提示,那就是“视频疑似AI生成”的字样。

其实这就是一些人利用AI技术,自动生成一些人物,并且很多时候这些人物的形象、动作等都和真人没有太大的差别。

也正是因为AI技术的强大,就有人利用这一点来实施新型的诈骗手段,那就是利用AI技术,生成一些长相漂亮的“小姐姐”。

有一些单身的男人在看到如此漂亮的“小姐姐”之后,不由得开始心动,便开始留言等行为,而这些人就是骗子的“猎物”。

骗子伪装成AI生成的漂亮“小姐姐”,利用各种花言巧语来牵动单身男人的内心,从而事实“情感诈骗”。

毕竟现在的社会上,有很多人都处于单身状态,并且希望自己能够找到合适的另一半,因此也会在网上进行筛选。

新民晚报就曾报道过,一位刘先生就被AI生成的美女所吸引,并很快确定了恋爱关系,随后便陷入“幸福的恋爱生活”当中。

在这期间,刘先生为对方花了不少钱,经过一段时间下来,刘先生为其花费了二十万左右,然而这个时候他们双方还没有进行线下见面,仅仅只是在网上联系。

越发觉得事情的不对,刘先生经过很长时间才发现自己上当受骗了,和自己谈了这么长时间的恋爱,而对方只是骗子利用AI生成的美女在和自己聊天。

可以说这真的是防不胜防,其实不仅仅是这些诈骗手段,也不单单是利用“朋友、亲人、情感”等诱因,其实对于骗子来说,诈骗的手段多种多样。

只不过骗子会根据不同的人群来选择不同的手段,他们根据不同人群的不同需求,来抓住他们的内心,从而骗取他们的钱财。

而AI就是他们的辅助手段,在验证身份上,让受害者降低了防范意识,高超的技术让他们误认为,互联网后面的人就是自己的“朋友”或“家人”。

由于AI技术的强大,很多人都无法分辨这到底是真实的还是虚假的,最终在骗子的套路下,一步步走上了绝路。

不过还有很多人认为,自己不可能上当受骗,其实他们也只是了解这些诈骗手段而已,一旦骗子利用更加先进的诈骗手段,很难保证不被骗。

因此在生活中,只要是涉及到金钱交易的,一定要谨慎,有条件的一定要当面交流,避免被网上的虚假AI技术所迷惑。

结语

科技给我们的生活带来了便利,但也给骗子们带来了方便,我们不能改变骗子,只能自己提高防范意识,谨防上当受骗。

[免责声明]文章描述过程、图片都来源于网络,此文章旨在倡导社会正能量,无低俗等不良引导。如涉及版权或者人物侵权问题,请及时联系我们,我们将第一时间删除内容!如有事件存疑部分,联系后即刻删除或作出更改。

信息来源

【1】光明网:《警惕!AI诈骗在全国爆发 有人10分钟被骗走430万》

【2】极目新闻:《警惕AI语音新骗局!3人炮制“孙子”电话诈骗老人》

【3】新民晚报:《警惕网络诈骗新套路 用AI生成“小姐姐”在短视频平台引流….…》

但为提升文章可读性,细节可能存在润色,请理智阅读,仅供参考!

0 阅读:29

心灵古迹

简介:欢迎关注!