1月31日,公安部网安局发文提醒公众年夜众,把稳戒备合成声音和AI换脸等人工智能新型手段诱骗,建议通过多重验证、保护信息和相互提示的办法避免上当。
所谓合成声音,是指骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用假造的声音骗过对方。
据公安部网安局公布的案例,2020年12月,某公司财务小王接到领导电话,哀求急速给供应商转款2万元,并将转账信息以邮件形式发送,转款情由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后创造被骗。
澎湃新闻梳理发现,类似的案件也发生在国外。2019年9月,犯罪分子利用语音克隆软件对英国一家能源公司高管的声音进行模拟。该公司的实行董事在接听诱骗电话后,将24万美元汇入了一个匈牙利账户。目前,该罪犯仍未被抓获。
2020年2月20日 ,互联网安全专家公司Symantec报告了三起音频诱骗案例,犯罪分子通过电话会议、YouTube、社交媒体以及TED演讲得到了公司高管的音频,然后用机器学习技能复制高管的声音,致电财务部门的高等成员哀求紧急汇款。
比声音合成更高等的骗术是AI换脸。
近年来,以“深度假造”技能(Deepfake)为代表的AI换脸技能日益成熟。通过“深度假造”技能,可以将图片或视频中A的脸换到B的头上。其名字由深度机器学习(deep machine learning)和假照片(fake photo)组合而成。
2019年8月,一个名为“ZAO”的AI换脸APP一度爆红,后因隐私、伦理等问题备受诟病。在“ZAO”APP中,用户只需上传一张自己的照片,就能将自己的脸更换到某位明星的头上,而且脸领悟效果非常棒。这款运用强大的“换脸术”便是基于“深度假造”技能。
目前,“深度假造”技能正在被用于诱骗。骗子首先剖析公众年夜众发布在网上的各种信息,根据所要履行的骗术,通过AI技能筛选目标人群。在视频通话中利用AI换脸,骗取信任。
近日,南京警方接到小李报警称,被诱骗3000元。小李先容,大学同学通过QQ跟她借钱,对方打过来一段只有四五秒的视频电话,小李看到确实是本人,便放心转账。她在第二次转账时创造非常,再次拨通对方电话才得知同学的帐号被盗。警方判断,那段视频很有可能被人换了脸。目前,警方已备案。
《科技日报》此前援引安全剖析公司Sensity的调查结果称,自2018年12月以来,“深度假造”技能在线造假视频的数量大约每6个月翻一番,而截至2020年6月,造假视频已经多达49081个,比2019年7月增长了330%。
公安部网安局提醒,面对AI换脸诱骗,“看眼睛”是识别假脸的方法之一。多数假脸都是利用睁眼照片合成,假脸极少乃至不会眨眼,短缺眨眼是判断一个视频真假的好方法。
辨识“深度假造”换脸视频的方法还包括语音和嘴唇运动的同步状况、感情不符合、模糊的痕迹、画面停顿或变色。然而,专家指出,通过不断的技能迭代,迟早会有人可以通过“深度假造”技能制造出人类用肉眼无法识别的“假脸”。
面对日益强大的人工智能新型诱骗手段,"大众年夜众可以采纳哪些戒备方法?
公安部网安局提醒以下三点:
多重验证,确认身份。目前,AI换脸难以肉眼区分。因此,在涉及钱款时,只管即便通过电话讯问详细信息,确认对方是否为本人。
保护信息,避免诱惑。加强个人信息保护意识,对付不明平台发来的广告、中奖、交友等链接提高当心,不随意填写个人信息,以免被骗子“精准围猎”。
相互提示,共同预防。做好家中老人的宣扬戒备事情。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
任务编辑:李跃群
校正:栾梦