吉林省科学技术协会主办
吉ICP备案号18002506号
吉公网安备 22010402000667号
来源:本站
2023-09-22 12:17:50
随着人工智能的迅猛发展
诈骗团伙的手段也越来越科技化
近期,话题#AI诈骗正在爆发#
冲上微博热搜
都说“眼见为实”
但自从AI的应用范围越来越广后
有人利用AI换脸实施犯罪
伪造不雅视频、换脸诈骗等
所以,眼见很可能不为实
耳听更为虚!
多地出现AI诈骗案例
有人10分钟被骗430万元
近日,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例。
来自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。
基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。
事后,郭先生才得知被骗,原来是骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。
幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。
AI换脸还可能出现在直播带货中。最近,网上出现了一些“换脸直播”教程,可以帮助用户轻松“变脸”,帮助引流卖货。
在一个展示换脸直播效果的视频中,使用者把“成龙”的模型载入相关软件后,摄像头前的人在直播画面中就有了与成龙相似的五官,但脸型和发型还保持原样。
使用者在歪头或变换表情时,五官动效也可以自然切换,只有手掌从脸前划过时,才出现比较明显的破绽。
这样的行为可能涉嫌侵犯相关明星艺人的肖像权,也涉嫌欺诈或虚假宣传。
AI诈骗有哪些常用手法?
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。
如何防范AI诈骗?
科普君认为,防骗最有效的方法,就是无论对方怎么“换”、怎么变,就是“不听不信不转账”。
国内AI安全公司瑞莱智慧联合创始人、算法科学家萧子豪表示:
如果遇到这类疑似AI换脸诈骗的情况,可以在视频时有意识地引导对方做一些动作,如大幅度的摇头或张嘴;如果骗子技术手段较弱,那么有可能发现对方面部边缘或者牙齿的瑕疵,从而识别出AI换脸;
如果疑似是声音伪造,可以试一下与对方用方言交流;
此外还可以追问几个只有你与好友之间才知道的私密信息,来核实对方身份。
警方提醒,对于新型诈骗方式有以下三种防范措施:
对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的。
网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。
如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。
如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心。
不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。
陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。
公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询。
如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。
三部门发布规定
实际上,AI 换脸技术并非是近期才兴起。
2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),自2023年1月10日起施行。
其中明确提供合成人声、人脸生成、沉浸式拟真场景等生成或显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。
使用AI换脸软件生成的视频
视频左上角应标识“视频由AI技术合成”。
记住
和你视频对话的
不一定是本人!
快转发给你家人
尤其是老年人
让骗子无法得逞!
来源 | 广东科普