俗话说“眼见为实”,但在AI时期,眼睛瞥见的也不一定是真实的。

随着AI“换脸”技能的发展精进,通过APP操作,一个人就能在视频里被轻易地更换成另一个人,表情、动作、姿态险些能够达到完备同步。

快速发展的AI造假令安全问题凸显。
一方面,AI“换脸”掀起了一场色情视频造假的黑产狂欢。
另一方面,Deepfake(深度假造)技能将让仿冒身份或用户授权被盗用等安全问题产生隐患,严重威胁到公民人身安全和金融安全。

与此同时,AI造假还将导致信息不实,引发秩序混乱。
一段关于政客受伤、重病的假视频可能引起海内的金融动荡。
一段假冒威信人士发布胆怯打击、疾病磨难等假的视频会引起群众惶恐乃至暴力冲突。

应避免AI技能的滥用

而更为深远的影响,便是对付全体社会公信力的影响。
当前,越来越多的人通过社交媒体得到第一手的信息。
假视频泛滥让信息真伪难辨,比如,刻意假造的假新闻、模拟领导人或威信专家的信息。
数以亿计缺少专业辨识能力的老百姓随意马虎轻信而被欺骗,从而引发更大的公信力危急。

正是意识到AI造假可能带来的诸多风险,一些国际科技巨子企业开始推出反Deepfake策略。
2019年11月12日,推特正式发布首个反Deepfake策略草案。
该公司表示,如果Deepfake内容威胁到某人的人身安全或可能造成严重侵害,他们会将该内容从推特上删除。
目前,推特已开始就此项草案向公众年夜众征集见地。
其余,Facebook表示,将禁止发布由人工智能深度操纵的视频;谷歌则联手Google Research、马里兰大学等多家研究机构,开拓了一个名为Assembler的实验平台,旨在帮助们通过大略的操作,快速识别Deepfake。

各国政府也纷纭脱手。
2019年6月,美国国会提出《深度假造任务法案》,旨在通过限定深度假造合成技能,打击虚假信息的传播。
2019年年底,我国相继发布《网络音视频信息做事管理规定》《网络信息内容生态管理规定》等法规,规范干系行为;2020年1月17日,据路透社宣布,欧盟委员会正在草拟一项操持,考虑在3到5年韶光里禁止在包括火车站、运动场和购物中央等公共场所利用人脸识别技能。

中国信息安全研究院副院长左晓栋认为,随着AI“换脸”利用场景更丰富,行业和监管部门应该研发相应的“反换脸”检测技能,来筛选干系视频是否由“换脸术”完成。
他建议,要加快建立人工智能算法的安全评估制度,对不同场景下AI“换脸”技能进行评估,办理干系技能滥用问题。

AI技能的进步无疑是一件利大于弊的事情,技能本身不存在原罪。
我们必须要制订配套的规则、规范和保护方法,才能有效避免技能滥用的情形发生,并且将发生时的丢失降到最低。