“AI换脸”新型诱骗频发

利用人工智能(AI)

履行电信诱骗的范例案例冲上热搜

引发全网关注

当心AI这种诱骗成功率近100

“好友”溘然打来视频

10分钟被骗走430万元

近日,“安然包头”公众号发布一起利用人工智能(AI)履行电信诱骗的范例案例,福州市某科技公法律人代表郭师长西席10分钟内被骗430万元。

4月20日11时40分旁边,福州市某科技公法律人代表郭师长西席的好友溘然通过微信视频联系到他,两人经由短暂谈天后,好友见告郭师长西席,自己的朋友在外地投标,须要430万元担保金,且须要公对公账户过账,以是想要借用郭师长西席公司的账户走一下账。

好友向郭师长西席要了银行卡号,声称已经把钱打到郭师长西席的账户上,还把银行转账底单的截图通过微信发给了郭师长西席。
基于视频谈天信赖的条件下,郭师长西席没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。

钱款转账后,郭师长西席给好友微信发了一条,称事情已经搞妥。
但让他没想到的是,好友回过来的竟然是一个问号。

郭师长西席拨打好友电话,对方说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技能,佯装成好友对他履行了诱骗。

“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,以是才放松了戒备”,郭师长西席说。

幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移。

对付AI换脸诱骗,有网友认为太恐怖,也有人认为,往后借钱得当面谈了。

AI诱骗常用手腕

据湖北网警巡查司法5月6日

AI技能的新骗局来袭后

诱骗成功率竟靠近100%

AI技能

如何参与新骗局?

有什么新的诱骗办法?

把稳了

第一种是声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用假造的声音骗过对方。

第二种是AI换脸

由于人脸效果更易取得对方信赖,骗子用AI技能换脸,可以伪装成任何人,再通过视频办法进行信息确认。

第三种是转发微信语音

除了AI换脸、合针言音外,还有一些诱骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的办法行骗。

在盗取微旗子暗记后,骗子便向其好友“借钱”,为取得对方的信赖,他们会转发之前的语音,进而骗取钱款。
只管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。

第四种是AI筛选受骗人群

值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要履行的骗术,通过AI技能筛选受骗人群,别有用心地锁定特定工具。
例如,当进行金融诱骗时,常常搜集投资信息的小伙伴就会成为他们潜在的目标。

“迪丽热巴”“杨幂”等明星直播卖货?

AI换脸或涉嫌侵权

除了诱骗钱财,此前还有女子被人利用AI“一键脱衣”造黄谣,某男子利用视频合成技能,将电视剧中与某有名女星亲吻的男主角换本钱身以蹭流量,效果都到了以假乱真的地步。
在直播间,AI实时换脸也带来了侵权危害。

“点进直播间一看,‘迪丽热巴’居然在直播卖货。
”近日,有网友点开直播间,却创造正在卖货的竟是“当红女星”。
然而再定睛一看,这些带货“明星”很快露出了漏洞——身穿中式服装,正在卖力带货的“明星”们,实在只是利用了AI实时换脸技能的普通主播。

有视频换脸研究者表示,实时换脸不存在延迟,也不会有Bug,而直播画面传输的延迟则取决于利用者的网络配置和进行直播的平台。

作为一种基于深度学习算法的

信息技能

人工智能本身是中性的

但背后操作、设定、利用的是真实的人

AI可以为生活带来便利

也可被用来牟利作歹

这也提醒我们

遍及人工智能技能时

必须以法律和道德加以规范

综合21世纪经济宣布、新闻坊、中国新闻网、上海新闻广播、网友评论

来源: 哈尔滨日报