“AI大骗子”就在我们身边,该怎么防?

来源:本站

2023-09-22 12:17:50


随着人工智能的迅猛发展

诈骗团伙的手段也越来越科技化


近期,话题#AI诈骗正在爆发#

冲上微博热搜



都说“眼见为实”

但自从AI的应用范围越来越广后

有人利用AI换脸实施犯罪

伪造不雅视频、换脸诈骗等

所以,眼见很可能不为实

耳听更为虚!



多地出现AI诈骗案例

有人10分钟被骗430万元


佯装“熟人脸”实施诈骗


近日,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例。


来自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。


基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。


事后,郭先生才得知被骗,原来是骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。


幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。


冒充明星,带货直播


AI换脸还可能出现在直播带货中。最近,网上出现了一些“换脸直播”教程,可以帮助用户轻松“变脸”,帮助引流卖货。



在一个展示换脸直播效果的视频中,使用者把“成龙”的模型载入相关软件后,摄像头前的人在直播画面中就有了与成龙相似的五官,但脸型和发型还保持原样。


使用者在歪头或变换表情时,五官动效也可以自然切换,只有手掌从脸前划过时,才出现比较明显的破绽。


这样的行为可能涉嫌侵犯相关明星艺人的肖像权,也涉嫌欺诈或虚假宣传。




想要识破这些“AI骗子”,就要了解清楚AI诈骗方法有哪些。

AI诈骗有哪些常用手法?


第一种:声音合成


骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。



第二种:AI换脸


人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认


骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。



第三种:转发微信语音


骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。


尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发



第四种:AI程序筛选受害人


骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出制化的诈骗脚本,从而实施精准诈骗。


例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。


如何防范AI诈骗?


科普君认为,防骗最有效的方法,就是无论对方怎么“换”、怎么变,就是“不听不信不转账”。


国内AI安全公司瑞莱智慧联合创始人、算法科学家萧子豪表示:


如果遇到这类疑似AI换脸诈骗的情况,可以在视频时有意识地引导对方做一些动作,如大幅度的摇头或张嘴如果骗子技术手段较弱,那么有可能发现对方面部边缘或者牙齿的瑕疵,从而识别出AI换脸;


如果疑似是声音伪造,可以试一下与对方用方言交流


此外还可以追问几个只有你与好友之间才知道的私密信息,来核实对方身份。


警方提醒,对于新型诈骗方式有以下三种防范措施:






多重验证,确认身份

对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的。


网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。


如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。







保护信息,避免诱惑

如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心。


不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。


陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。






提高安全防范意识

公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询。


如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。




三部门发布规定


实际上,AI 换脸技术并非是近期才兴起。


2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),自2023年1月10日起施行。


其中明确提供合成人声、人脸生成、沉浸式拟真场景等生成或显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。



使用AI换脸软件生成的视频

视频左上角应标识“视频由AI技术合成”。


记住

和你视频对话的

不一定是本人!

快转发给你家人

尤其是老年人

让骗子无法得逞!

来源 | 广东科普


平台内容包括原创、编辑整理和转载。
我们尊重原创:1.所有转载内容均标明来源,如尽力查找仍未能发现出处则标明“转自网络”。如有疏漏欢迎原作及时联络署名或删除;2.任何作品标明“谢绝转载”,我们尊重并不予转载;3.对于恶意及虚假举报,我们保留申诉、举报、法律起诉以及媒体曝光权力。


Baidu
map