新骗局来了!诈骗成功率接近100%,大家一定要警惕,建议转告家人

行江湖英豪 2024-12-19 18:48:23

老话说:眼见为实。

但现在,亲眼所见也不一定是真实了。

这是为什么?

只能说,随着科技的发展,现在的骗子也“与时俱进”了。

福州的郭先生就深受其害,曾花430万买了个教训。

2023年5月,郭先生接到了一位“好友”的微信视频电话,对方声称自己正在外地竞标,急需430万保证金,正好郭先生是一家公司的法人代表,对方便要求通过郭先生的公司账户进行公对公转账。

由于视频中“好友”的音容笑貌与真人无异,郭先生并未产生怀疑,便将巨款转出。

可事后郭先生与朋友联系才发现,自己掉入了一个精心设计的AI陷阱,所谓的视频通话,不过是骗子利用AI技术合成出来的虚拟人物。

一次,马先生正用手机浏览短视频,“表哥”突然发来了好友申请。

通过好友后,“表哥”立即来了电话,说自己在非洲工作,手机信号不好给别人转不了账,急需表弟马先生帮忙垫付1.5万元合同资金。

出于信任,马先生想都没想就把钱给转了过去。谁知,这个“表哥”竟也是AI合成的虚拟人物,马先生被骗走了1.5万。

一次,李先生接到一个“公司领导”的好友申请。加好友后,“领导”便提出借钱,并承诺日后归还。

随后,“领导”主动发起视频通话,一下子打消了李先生的疑虑,将95万元转给了“领导”。

事后,李先生与朋友说到此事,一番分析后李先生才意识到自己可能被骗了。他立即报警,最终在警方的帮助下追回了83万元的损失。

层出不穷的新骗术

比如,一些不法分子将目标锁定在网约车司机身上,利用他们作为“帮凶”,运送骗取的黄金、现金等财物。

这种手段的恶劣程度令人发指,也暴露了个人信息保护的重要性。

当接到亲朋好友的借钱请求,要先提高警惕,就算是打了视频通话,也不要轻易相信。

可以通过电话、其他社交软件或者当面确认等多种方式核实对方身份。毕竟多一重核实,就让自己的财产多了一份安全保障。

AI换脸技术并非完美无缺,仔细观察视频中人物的细节,往往能发现“猫腻”。

例如,眨眼频率不自然、嘴部运动与语音不同步、面部表情僵硬、肤色光泽异常等,都可能是AI换脸的迹象。

为了进一步确认对方身份,可以要求对方做一些大幅度的转头、抬头等动作。

如果对方是AI合成的虚拟人物,在这些动作过程中,面部轮廓可能会出现模糊、变形等情况,从而暴露其真实身份。

筑牢安全防线

切记,不贪小便宜,骗子就很难骗到你。天上不会掉馅饼,任何以高额回报为诱饵的投资理财项目,都可能是陷阱。

个人信息是重要的资产,要妥善保管。尤其是身份证号、银行卡号、验证码等敏感信息,别人要了千万不要轻易给。

一旦发现被骗,要立即报警。寻求警方帮助,并积极配合调查取证,尽可能挽回损失。

结语

信息来源

《警惕!新型骗局出现,更具隐蔽性迷惑性!上海已有多名司机被卷入其中》鲁中晨报2024-11-21

编辑|Grace

0 阅读:0