老话说:眼见为实。
但现在,亲眼所见也不一定是真实了。
这是为什么?
只能说,随着科技的发展,现在的骗子也“与时俱进”了。
福州的郭先生就深受其害,曾花430万买了个教训。
2023年5月,郭先生接到了一位“好友”的微信视频电话,对方声称自己正在外地竞标,急需430万保证金,正好郭先生是一家公司的法人代表,对方便要求通过郭先生的公司账户进行公对公转账。
由于视频中“好友”的音容笑貌与真人无异,郭先生并未产生怀疑,便将巨款转出。
可事后郭先生与朋友联系才发现,自己掉入了一个精心设计的AI陷阱,所谓的视频通话,不过是骗子利用AI技术合成出来的虚拟人物。
一次,马先生正用手机浏览短视频,“表哥”突然发来了好友申请。
通过好友后,“表哥”立即来了电话,说自己在非洲工作,手机信号不好给别人转不了账,急需表弟马先生帮忙垫付1.5万元合同资金。
出于信任,马先生想都没想就把钱给转了过去。谁知,这个“表哥”竟也是AI合成的虚拟人物,马先生被骗走了1.5万。
一次,李先生接到一个“公司领导”的好友申请。加好友后,“领导”便提出借钱,并承诺日后归还。
随后,“领导”主动发起视频通话,一下子打消了李先生的疑虑,将95万元转给了“领导”。
事后,李先生与朋友说到此事,一番分析后李先生才意识到自己可能被骗了。他立即报警,最终在警方的帮助下追回了83万元的损失。
层出不穷的新骗术
比如,一些不法分子将目标锁定在网约车司机身上,利用他们作为“帮凶”,运送骗取的黄金、现金等财物。
这种手段的恶劣程度令人发指,也暴露了个人信息保护的重要性。
当接到亲朋好友的借钱请求,要先提高警惕,就算是打了视频通话,也不要轻易相信。
可以通过电话、其他社交软件或者当面确认等多种方式核实对方身份。毕竟多一重核实,就让自己的财产多了一份安全保障。
AI换脸技术并非完美无缺,仔细观察视频中人物的细节,往往能发现“猫腻”。
例如,眨眼频率不自然、嘴部运动与语音不同步、面部表情僵硬、肤色光泽异常等,都可能是AI换脸的迹象。
为了进一步确认对方身份,可以要求对方做一些大幅度的转头、抬头等动作。
如果对方是AI合成的虚拟人物,在这些动作过程中,面部轮廓可能会出现模糊、变形等情况,从而暴露其真实身份。
筑牢安全防线
切记,不贪小便宜,骗子就很难骗到你。天上不会掉馅饼,任何以高额回报为诱饵的投资理财项目,都可能是陷阱。
个人信息是重要的资产,要妥善保管。尤其是身份证号、银行卡号、验证码等敏感信息,别人要了千万不要轻易给。
一旦发现被骗,要立即报警。寻求警方帮助,并积极配合调查取证,尽可能挽回损失。
结语
信息来源
《警惕!新型骗局出现,更具隐蔽性迷惑性!上海已有多名司机被卷入其中》鲁中晨报2024-11-21
编辑|Grace