南都此前宣布,在9月2日下午举行的网安周新闻发布会上,中心网信办网络安全折衷局局长高林透露,操持在今年网安周高峰论坛主论坛上集中发布一系列标志性成果,个中就包括《人工智能安全管理框架》。

《框架》指出,人工智能系统设计、研发、演习、测试、支配、利用、掩护等生命周期各环节都面临安全风险,既面临自身技能毛病、不敷带来的风险,也面临不当利用、滥用乃至恶意利用带来的安全风险。

《框架》考试测验从内生(自身)安全和运用安全维度,对人工智能安全风险进行分类。
在内平生安风险层面,紧张面临模型算法安全风险、数据安全风险和系统安全风险。

以数据安全风险为例,《框架》指出,演习数据中含有虚假、偏见、陵犯知识产权等违法有害信息,或者来源缺少多样性,导致输出违法的、不良的、过分的等有害信息内容。
演习数据还面临攻击者修改、注入缺点、误导数据的“投毒”风险,“污染”模型的概率分布,进而造成准确性、可信度低落。

人工智能安然治理框架宣告建立AI做事可追溯治理轨制

为戒备数据安全风险,《框架》提出完善人工智能数据安全和个人信息保护规范。
针对模型算法安全风险,《框架》建议推进人工智能可阐明性研究,构建负任务的人工智能研发运用体系。
同时《框架》提出,强化人工智能供应链安全保障、风险威胁信息共享和应急处置机制,以更好地应对系统安全风险。

安全风险与技能应对方法、综合管理方法映射表。

在运用层面,《框架》按网络域、现实域、认知域、伦理域等四类安全风险进行划分。
个中,网络域安全风险的一个表现在稠浊事实、误导用户、绕过鉴权。

《框架》指出,人工智能系统及输出内容等未经标识,导致用户难以识别交互工具及天生内容来源是否为人工智能系统,难以鉴别天生内容的真实性,影响用户判断,导致误解。
同时,人工智能天生图片、音频、视频等高仿真内容,可能绕过现有人脸识别、语音识别等身份认证机制,导致认证鉴权失落效。

现实域安全风险的主要表示是,当人工智能与传统领域结合而产生的隐患。
比如,《框架》提到人工智能可能被利用于涉恐、涉暴、涉赌、涉毒等传统违法犯罪活动,包括传授违法犯罪技巧、隐匿违法犯罪行为、制作违法犯罪工具等。

在认知域安全风险上,《框架》认为人工智能广泛运用于定制化信息做事,可能加剧“信息茧房”效应风险等。
在伦理域安全风险上,则可能加剧社会歧视偏见、扩大智能鸿沟风险等。

针对这些安全风险,《框架》提出了多重管理方法。
详细包括,履行人工智能运用分类分级管理;建立人工智能做事可追溯管理制度;加大人工智能安全人才培养力度;建立健全人工智能安全宣扬教诲、行业自律、社会监督机制;促进人工智能安全管理国际互换互助等。

如何建立人工智能做事可追溯管理?《框架》认为,对面向公众年夜众做事的人工智能系统,应通过数字证书技能对其进行标识管理。
制订出台人工智能天生合成内容标识标准规范,明确显式、隐式等标识哀求,全面覆盖制作源头、传播路径、 分发渠道等关键环节,便于用户识别判断信息来源及真实性。

《框架》还供应了人工智能安全开拓运用指引,针对模型算法研究者、做事供应者、重点领域利用者、社会"大众年夜众平分歧角色,提出详细建议。

对社会公众年夜众而言,《框架》建议其选择信誉良好的人工智能产品,提高个人信息保护意识,避免在不必要的情形下输入敏感信息。
同时,社会"大众年夜众在利用人工智能产品时,应关注网络安全风险,避免人工智能产品成为网络攻击的目标。
尤其是,把稳人工智能产品对儿童和青少年的影响,预防沉迷及过度利用。

值得一提的是,《框架》指出,目前人工智能研发运用仍在快速发展,安全风险的表现形式、影响程度、认识感知亦随之变革,戒备应对方法也将相应动态调度更新,须要各方共同对管理框架持续优化完善。