案情回顾

宁夏固原市辖区居民马某某接到“表哥”视频电话“乞助”后,绝不犹豫给对方指定账户转钱过去,殊不知,他已遭遇网络诱骗
由于是视频电话,见了“真人”声音又象,不疑惑什么,分三次转了一万五千元过去。
可是事后再联系这个表哥,真表哥说没这事,这才急忙报警可事已晚矣。

诱骗分子利用AI技能进行诱骗的案例在近年来逐渐增多,这种新型诱骗手段通过AI换脸和拟声技能,仿照他人的声音和形象,以获取受害者的信赖并履行诱骗。
例如,福州市某科技公司的法人代表郭师长西席在与“好友”视频谈天时,被对方以借用账户转账为由,10分钟内骗走了430万元。
这是一起范例的AI诱骗案件,骗子利用AI换脸和拟声技能假造了郭师长西席好友的形象和声音,从而履行了诱骗。

AI换脸技能,又称深度假造技能(Deepfake),通过深度学习算法,将一个人的面部特色移植到另一个人的视频或图片上,实现逼真的“换脸”效果。
而拟声技能则是利用人工智能模拟人的声音,乃至可以天生与目标人物声音极为相似的音频。
这些技能在娱乐、广告等领域具有广泛的运用前景,但其滥用问题也不容忽略。

当心当心诱骗份子用AI技能变脸和拟声骗钱财到手

为了戒备这种新型的AI诱骗,公众年夜众须要提高当心,不轻信陌生电话或视频,不随意透露个人信息或资产情形,不梦想小利或同情心,不下载未知软件或点击可疑链接,不参与造孽活动或违规操作。
同时,要提高个人信息保护意识,严防各种信息透露,在互联网上,只管即便避免过多暴露自己的姓名、电话、社交账号、照片、视频等信息。

此外,有关部门也在加强技能戒备和立法事情,以应对AI诱骗带来的寻衅。
例如,国家金融监督管理总局发布了风险提示,提醒消费者当心利用AI新型技能履行诱骗的风险,并采纳了一系列方法来保护消费者的财产安全。
同时,也有专家建议,要通过不断的教诲改变大众不雅观念,提升对网络信息的辨识力,让人知道眼见不一定为实,有图不一定有原形。