利用“AI换脸”等音视频诈骗案件多发
今年以来,ChatGPT和GPT-4等技术的应用成为信息科技领域的热点,引起公众对AI技术的广泛关注和热情。昨日,中国互联网协会发文称,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤的违法行为屡见不鲜。北京青年报记者查询发现,国内多地警方已经发布了相关案例。
利用“AI换脸”虚假视频诈骗已发生多起
据内蒙古包头警方消息,近日,福建省一知名企业家被境外诈骗团伙骗走430万元。在得知涉案的一张银行卡在包头市一银行后,包头警方立即介入,仅用10分钟便将钱款及时控制住,为受害人止损336万余元。
据当事人郭先生介绍,4月20日当天,骗子冒充他的至交好友,通过微信联系到他,视频中谎称一个朋友在外地招标,需要430万元,且需要公对公账户过账,想要借用郭先生公司的账户走一下账。“从头至尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去。因为在视频中也确认了面孔和声音,所以我放松了戒备。当时已经临近中午,对方又说招标款12点前必须到账,基于对好友的信任,还没等钱到我的账户,我就先把这430万元给对方打了过去。”郭先生说。
钱款打过去后,郭先生给好友发了一条微信,称事情已经办妥。到对方回过来是一个问号,一问才知道自己竟遇上了AI换脸的骗局。
多地警方密集提醒涉及转账交易要格外留意
北京青年报记者注意到,针对AI换脸诈骗的案件,近期国内各地警方密集进行了提醒。
温州警方表示,不法分子通常会先盗取QQ或微信号,从QQ相册或微信朋友圈内找到号主照片、视频、声音等,大面积找好友聊天,看到有回复的,使用“AI换脸”技术与之进行视频聊天,再找各种理由骗钱,受害人往往看到视频聊天界面后,以为是好友本人,便相信转账。
武汉警方提醒,在涉及转账交易等行为时,个人要格外留意。
对自称“领导”“朋友”的转账要求务必提高警惕
中国互联网协会则表示,如果有人自称“家人”“朋友”“老师”“领导”,通过社交软件、短信、电子邮件等,以各种方式和理由诱导你转账汇款,务必第一时间提高警惕。在AI时代,文字、声音、图像和视频都有可能是深度合成的。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道,未经核实就直接转账汇款,无论对方是谁。
案例
AI除了换脸换声扮好友还能合成不雅视频敲诈
浙江温州市公安局也通报过一起利用AI换脸技术进行诈骗的案件。在这起案件中,陈先生收到了身处国外的好友“阿诚”发来的私信,在添加了对方的新微信后,对方表示自己最近准备回国,但购买机票的过程中遇到了难题,回国的机票已付了8000元定金,受到国际漫游限制,联系不上国内航空公司的经理,希望将剩余的钱转给陈先生,请他帮忙联系经理进行付款。
对于此人的身份,陈先生有所怀疑,但对方随后打来视频电话,视频中“阿诚”和陈先生挥着手打招呼很是亲切,没过一会儿,对方就挂断了视频电话,称国外网络很卡。陈先生渐渐打消了心中的顾虑,并在“阿诚”一步步的“指导”下添加了“航空公司经理”的微信替“阿诚”支付了4.9万元。经过警方核实,骗子用AI换脸技术,利用阿诚社交平台上先前发布的视频,截取了面部视频画面并进行了“换脸”,从而对陈先生进行了诈骗。
此外,江苏常州警方也通报了一起类似案例。小刘的初中同学“小韩”通过QQ联系小刘,准备借6000元钱,“小韩”先发来一条语音,声音很像本人,后来又给小刘打了一通视频电话。小刘转完钱后越想越不对劲,觉得“小韩”表情僵硬,于是拨打小韩的电话,没想到小韩的QQ账号被盗了
北青报记者注意到,除了通过AI换脸,然后视频通话的手段直接诈骗钱财,还有诈骗分子通过AI不雅视频的方式进行诈骗,诈骗分子用AI技术合成诈骗对象的个人不雅照,然后以举报、散播等手段威胁当事人,要求诈骗对象汇款。
在温州警方通报的一起案件中,温州的陈先生遭遇“AI换脸”敲诈,他收到一封“私家侦探”的敲诈信,同时附带了他与一名女子的所谓的不雅视频,信件中对方要求陈先生收件后速与其联系,不要心存侥幸,并威胁将视频散播到互联网。因为知道这是一段合成视频,但不知如何处理,陈先生向警方求助。目前此案件正在调查中。
本组文/本报记者李铁柱(来源:北京青年报)
AI换脸诈骗,防不胜防
短时间内曝光的两起AI换脸诈骗案,对今年以来持续火爆的AI技术发展无疑是一种警醒:未来令人“防不胜防”的AI换脸诈骗会否大规模爆发?又应如何防范这类诈骗?新京报贝壳财经记者 罗亦丹 编辑 岳彩周AI火了,骗子也来了!近日,两起利用AI换脸实施诈骗的案例引发关注。继包头警方发布“福州市某科技公司法人代表郭先生10分钟内被人用AI换脸诈骗430万元”后,5月25日,安徽警方也通过当地媒体披露了一起类似案件,诈骗分子使用了一段9秒钟的智能AI换脸视频,佯装“熟人”,导致安庆经开区的何先生被诈骗245万。短时间内曝光的两起AI换脸诈骗案,对今年以来持续火爆的AI技术发展无疑是一种警醒:未来令人“防不胜防”的AI换脸诈骗会否大规模爆发?又应如何防范这类诈骗?5月25日,新京报贝壳财经记者采访反诈民警以及行业专家发现,目前使用AI换脸诈骗的案例并不多,同时在上述两起诈骗案中受害者均是先入为主认为发来视频的是朋友的社交账号才有了后续“AI换脸”的登场,因此源头上应先防止自己账号被盗用、警惕他人社交账号真伪。此外,AI技术的发展也确实降低了AI换脸的门槛,客观上降低了AI换脸诈骗的成本。━━━━━两起AI换脸诈骗有何共同点?针对性诈骗,账号被盗是问题关键新京报贝壳财经记者注意到,近期曝光的两起AI诈骗案例均属于针对性较强的“特定性诈骗”。在郭先生的案例中,“好友”通过微信视频联系他,表示自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。郭先生转账后拨打好友电话,才知道被骗。而在何先生的案例中,其微信“好友”突然向其发起视频通话,电话接通后,何先生看到“好友”正在一间会议室内,并借故会议有事,通过QQ要求周转资金,导致何先生被骗。可以发现,在上述诈骗案例中,诈骗分子对受害者和其好友的身份、日常话术均有深刻了解,才能完成诈骗。此外,在伪造好友身份这一环,通过AI伪造视频只是增加可信性,但消息确实是从“好友”的微信号发来,才造成了受害者深信不疑。电信专家付亮表示,在何先生的案例中,首先出现微信直接联系,然后转QQ号码直连,转账也未通过微信或QQ(绕开了腾讯的安全判定),“假冒QQ好友的诈骗手法快30年了,都没有用到AI,互联网快速发展,更多防护意识较弱的人成为网民,快捷的电子转账也为骗子提供了便利。两起案例中都是盗用账号诈骗,AI换脸只是辅助。”民间互联网安全组织网络尖刀创始人曲子龙告诉新京报贝壳财经记者,此类AI换脸的诈骗手段都是定向针对性诈骗,而非传统意义上“广撒网,打打电话”的电信诈骗,往往干的也都是“大单”。源头上需要防止账号被盗用,不要轻易加陌生人,“也要防止其他人用小号加你,过一段时间改成你亲友,然后再实施诈骗。”━━━━━AI换脸诈骗不会大规模出现有哪些方法可以识别对方是AI换脸?5月25日,某沿海城市反诈专班民警对新京报贝壳财经记者表示,目前并未发现当地有使用AI冒充熟人作案的案例,主要是这种诈骗方式手段特殊,需要特定人群、还需要人脸数据等,要素比较多,因此不会大规模出现。实际上,AI换脸技术早在2017年就已在网上流行,不论是使用女明星的脸替换成人影星的色情影片,还是为了娱乐使用自己的脸替换电影形象曾流行一时的App“ZAO”,使用的都是同一类技术。如何识别对方是AI换脸?曲子龙表示,AI换脸目前在连续动作的实时渲染方面还是会存在技术缺陷,比如在说话的时候嘴部动作、眼部动作,如果仔细看都会存在一定的“不和谐”情况,如丢帧、嘴巴时大时小等问题。有专家提示称,“AI假脸”的纹理特征存在破绽。例如,伪造后的视频人物的眼睛或牙齿轮廓细节容易不一致;两只眼睛瞳孔的颜色不一样或瞳孔中心反射的细节不一样;很多伪造视频由于视频分辨率低于原始视频,伪造出来的视频牙齿边缘过于整齐等。新京报贝壳财经记者注意到,为了防止“穿帮”,一般诈骗分子不会长时间播放AI换脸的视频,如在何先生的案例中,诈骗分子只视频通话了9秒,就匆匆转到了文字聊天。不过,一个现实问题是,随着AI技术的进步,AI换脸的门槛确实也越来越低。“以前AI换脸还需要一两百张图片,现在不同角度的照片,一般5到8张就可以生成很不错的模型了。”曲子龙说。曲子龙坦言,“AI发展太快,想要防止脸被盗用太难了,尤其是一些公众人物、明星、网红,他们的照片很好获取。像微博、抖音、朋友圈,或者干脆去偷拍你几张高清照片,都能通过AI建模实现换脸。”付亮对新京报贝壳财经记者表示,对于此类诈骗手法,主要要防范骗子通过微信或QQ假冒熟人(亲戚、朋友、客户)诈骗。一方面,有资金往来,应先电话确认;此外,把钱打到陌生账户,要反复确认;最后,一定切记,对面和你聊天的不一定是本人,可能是假冒的,甚至可能是机器人,不要轻易相信。责任编辑:刘德宾