又一新骗局!10分钟诈骗430万,诈骗成功率接近100%,一定要警惕

小八有烦恼 2024-12-21 18:44:50

曾几何时,我们认为电信诈骗离我们很远,骗子的手段拙劣只要稍加提防就能识破。

然而科技的进步是一把双刃剑,它在带来便利的同时,也被不法分子利用,催生出更加隐蔽、更具迷惑性的新型诈骗手段——AI诈骗。

不同于以往需要耗时费力、步骤繁琐的传统诈骗方式,AI诈骗凭借其高效性和精准性,在极短时间内就能造成巨大经济损失,令人防不胜防。

AI诈骗无人能“逃”

2023年年中,内蒙古包头市公安局公布了一则犯罪分子利用AI技术进行诈骗的案件。

事发当天,当地某科技公司老板老郭突然接到朋友的社交平台视频邀请,他接听后好朋友表示自己在外地正在竞标,急需430万元保证金,临时借用一下,竞标完成立刻归还。

因为是十分要好的朋友,又是视频聊天,老郭没有丝毫犹豫,直接就把430万巨款,打到了对方提供的银行卡上。在看到银行卡名字不是好朋友的姓名时,老郭也没有怀疑,因为在视频聊天中专门提到了那是另一人的账户。

为了核实是否到账,老郭给好朋友打去了电话,对方十分错愕,老郭这才意识到被骗。好在他及时联系了警察和银行,拦截下了336.84万元,剩下的93.16万元已经被犯罪分子转移,追缴十分困难。

老郭的整个受骗过程,仅不到10分钟,如果他没有立刻给好朋友打电话确认,或者没有及时拨打电话报警,损失将会进一步扩大。

其实早在2020年,就有过AI诈骗的案件,上海一位等级很高的高管接到老板的视频聊天电话,直接导致高管损失150万元。

此外在2021年,来自浙江温州的陈先生因跟女网友视频聊天,被对方获取了面容信息,用AI换脸将陈先生的面容换到了一些不堪入目的视频中,以此来敲诈陈先生。

可以看出,无论你是收入不菲的高管,还是普通的平民百姓,都有可能受骗。这些案例都在提醒着我们AI诈骗已不再是遥不可及的威胁,而是近在咫尺的陷阱。

最重要的是,随着如今短视频平台的火热,很多人都会在平台分享日常生活,露脸也是的事情。可这就会导致犯罪分子不用费吹灰之力,就能获取到你的面容以及声音信息,诈骗变得相当容易。

根据相关部门的数据显示,AI诈骗的得手率相当高,几乎无人能逃。

这主要是因为AI技术能够高度模拟真人,无论是声音还是容貌都足以以假乱真,即使是警惕性较高的人也容易上当受骗。

在老郭10分钟被骗430万的事件爆出后,AI诈骗也开始真正引起民众的注意。所以,赶紧弄清楚AI诈骗的套路,增强防骗意识是当务之急。

AI诈骗技术手段剖析

AI诈骗之所以这么猖狂,主要是因为那些背后的技术太厉害了。这些技术手段赋予了骗子“伪装”的利器,让他们能够更加轻易地获取受害者的信任,从而实施诈骗。

最早出现的是语音合成技术,以“音”乱真,难辨真假。骗子往往通过非法途径获取受害者的声音素材,例如骚扰电话录音、社交平台上的语音片段等,然后利用AI技术对这些素材进行分析和处理,合成出与受害者本人声音高度相似的声音。

这种合成语音可以根据骗子的需要说出任何内容,足以以假乱真,即使是熟悉受害者声音的人也难以辨别真伪。

更令人震惊的是,这种语音合成技术的门槛非常低,只需下载一些人工智能app即可实现声音克隆,有些app的收费甚至低至9.8元。这种低成本、高效率的特性使得语音合成技术成为骗子的“利器”。

有不少记者以及自媒体博主都对语音合成技术进行过测试,结果证明大多数人毫无防备,少数人会觉得有些奇怪,而老人则无一幸免,全军覆没,根本无法辨认出这是AI合成的语音。

在过去,犯罪分子往往会采用盗号发文字消息的形式进行诈骗借钱等等,所以在民众的认知中,如果好友借钱那么就发段语音自证身份,可语音合成技术的出现,已经完全打破了这种防御方式。

在着急的情况之下,即便你是十分警惕的人,也难以识破他们的骗术。

第二种便是现在升级版的AI换脸技术,如果说语音合成是“以音乱真”,那么AI换脸就是“以貌取信”。骗子利用AI技术将受害者的面部视频画面合成到其他视频中,制造出与受害者本人视频聊天的假象。

这种技术可以将受害者的面部表情、动作等细节完美地移植到其他视频中,使得视频看起来非常真实,即使是亲朋好友也很难分辨真假,老郭的遭遇正是一个典型的用AI技术进行换脸的诈骗案例。

与语音合成类似,AI换脸技术的应用门槛也越来越低,市面上存在大量的“一键换脸”app,使得任何人都可以轻松地进行换脸操作。骗子会从社交网站上搜集大家的公开照片和视频,拿来做换脸的材料。

虽然有些合成的视频在仔细观察下会显得粗糙,存在一些破绽,但对于不熟悉电子产品的老年人来说,这些破绽很容易被忽视,甚至会被骗子以“加了美颜”等理由搪塞过去。

除了郭先生的案例之外,还有许多其他受害者也遭受了AI换脸诈骗的侵害。这些案例都表明,AI换脸诈骗已经成为一种普遍存在的威胁,任何人都可能成为受害者。

新技术手段如雨后春笋般出现,真是防不胜防啊。

除了语音合成和AI换脸之外,骗子还会利用其他一些AI技术手段来实施诈骗,比如用AI技术看谁可能上当,通过分析人们的社交媒体和搜索历史,找出最可能被他们的诈骗手法欺骗的人。

在搞感情骗局时,他们喜欢找那些老爱晒感情动态的人。要是搞金融诈骗,他们就会挑那些总查投资理财资讯的人。这种筛选法让骗子能快速找到特定人群,然后根据情况编造个性化的骗局,成功率也因此更高。

这些不断涌现的新型技术手段使得AI诈骗更加难以防范,给社会带来了巨大的安全隐患。

AI诈骗防范措施

AI诈骗不仅仅是简单的财产损失,它还会带来一系列衍生风险,对社会造成深远的影响。

利用AI技术有些人能做出假视频,乱传假消息、造谣生事、宣扬迷信,这样会把大家带偏,弄乱社会。有些人用AI做些奇怪视频,在网上炒作,有时还骗钱。

面对日益猖獗的AI诈骗,我们该如何保护自己呢?

首先就是要保护好自己的个人信息,别把家里地址、生日、名字、身份证、银行卡、验证码这些敏感信息随便晒。而人脸、指纹这类敏感资料可别随便给外人或者那些没权限的软件。

在人人都可以观看的公众平台上,更不要过度公开或分享自己的照片、视频,尤其是动态的视频和图像,这些都可能成为AI换脸的素材。

如果遇到好友借钱,亲人救急,则需要记住14字原则:“多重验证,确认身份,不轻信,多核实”。

如果有人声称是你的亲友或领导,需要你转账或提供个人信息,一定要通过电话、视频聊天、见面等多种渠道核实对方身份,不要轻信单一渠道的信息。尤其是视频聊天是要注意观察是否有异常,例如画面模糊、声音卡顿等。

同时,千万别随便点不明链接、装来路不明的软件、加不认识的人,以免手机或电脑出问题,个人信息被偷走。

对于家中易受骗的老人,要专门帮助他们进行AI技术了解,多关心他们,让给他们提高警惕性。

最后也是最关键的一点,如果已经受骗,请在第一时间拨打报警电话,并及时联系银行进行拦截,只有这样,才能尽最大可能追回财产。

参考资料

警惕!正在全国爆发!有人“偷脸”10分钟骗走430万 光明网2023-05-23

“换脸”“拟声”!西山法院:警惕新型AI骗局 昆明市西山区人民法院 2024-11-21

利用AI技术诈骗 官方带你解析新一代电信网络诈骗的“千层套路” 海报新闻2024-12-13

0 阅读:0

小八有烦恼

简介:感谢大家的关注