当地韶光11月1日,英国人工智能安全峰会(Artificial Intelligence Safety Summit, AISS)首日,英国政府在位于英格兰南部的布莱切利庄园宣告,多个在人工智能领域领先的国家和地区,包括美国、欧盟和中国,就人工智能带来的机遇和风险,以及各国政府携手应对寻衅的必要性达成了共识,并签署了干系协议。
英国政府随后发布了这份名为《布莱切利宣言》(下称《宣言》)的协议。

根据科技部官网,科技部副部长吴朝晖出席人工智能安全峰会,并于1日举行的开幕式全体会议上发言。
与会期间,代表团参与人工智能安全等问题谈论,积极宣介中方提出的《环球人工智能管理倡议》,并将与干系国家开展双边会商。

中方指出,这次峰会为各国供应了人工智能安全与国际管理议题的主要对话平台与互换互助机会。
人工智能管理攸关全人类命运,是天下各国面临的共同课题。
发展人工智能,应该积极倡导以人为本,智能向善,加强技能风险管控,并在相互尊重、平等互利的原则根本上,鼓励各方协同共治,增强发展中国家在人工智能环球管理中的代表性和发言权,不断弥合智能鸿沟和管理能力差距。

必要性和急迫性

AI迎来全球管控时代但马斯克的第三方裁判靠谱吗

在日内一场公开讲话中,英国科学、创新和技能大臣米歇尔·唐兰(Michelle Donelan)称,《宣言》“是一项具有里程碑意义的造诣”,它为环绕人工智能干系风险的环球谈论奠定了根本,也让国际社会意识到,必须加深对人工智能干系风险的理解并采纳应对举措,由于“这是安全地利用人工智能带来的机遇的唯一路子”。

也有不雅观点认为,从某种意义上讲,这份宣言可以视作国际社会首次就监管人工智能的必要性和急迫性做出正式声明,但就监管力度等问题仍存不合。

总体来看,《宣言》最主要的内容包括两点:一是人工智能风险监管的必要性和急迫性,二是人类应对人工智能风险必须通过国际互助。

《宣言》提到,目前较大的安全风险涌如今人工智能的“前沿”领域,即前沿AI(Frontier Artificial Intelligence),也便是那些能力强大的通用人工智能模型,包括可以实行各种任务的根本模型,以及特定的弱人工智能(narrow AI),两者都具有给人类社会带来侵害的能力。

如果上述前沿AI被故意滥用,或者在正当的利用过程中涌现意外失落控,都将会带来巨大风险。
《宣言》认为,涌现这些问题的部分缘故原由是人们对这些前沿AI的能力还不完备理解,因此难以预测。

《宣言》尤其关注网络安全和生物技能等领域的风险,以及前沿AI可能放大虚假信息等风险。
鉴于人工智能发展速率之快和巨大的不愿定性,以及在干系投资加速的背景下,《宣言》强调加深对这些潜在风险的理解,以及应对这些风险的行动尤为急迫。

在接管第一财经采访时,伦敦国王学院教授、人工智能研究所所长卡迈恩·文特尔(Carmine Ventre)称,弱人工智能办理的是特界说务,如果落入坏人之手,可能会产生极为危险的后果,比如,“为生物工程运用而设计的人工智能模型,可能会被用来制造生物武器”。

加大投入应对AI风险

“前沿人工智能模型的威力正在呈指数级增长。
”英国首相里希·苏纳克在社交媒体发文表示。

一年前的11月,当微软支持的人工智能初创公司OpenAI向公众年夜众开放ChatGPT谈天机器人运用时,人们开始担心人工智能可能对经济和社会产生的巨大影响。

英国在峰会上宣告将增加对两台超级打算机的帮助,以支持前辈人工智能模型安全的研究。
个中一台超级打算机位于剑桥,由戴尔交付,包含超过1000个英特尔芯片;另一台位于布里斯托尔,由HPE制造,包含5000个英伟达前辈人工智能芯片。

两台机器将从明年夏天开始运行,并推动药物创造和清洁能源方面的打破。

英国政府还表示,在人工智能研究方面的资金投入将从之前宣告的1亿英镑增加到3亿英镑(约合27亿元公民币)。

美国政府利用这次峰会宣告将成立美国人工智能安全研究所,该研究所将评估AI的潜在风险。
美国总统拜登于本周一签署了一项行政命令,授予美国政府对人工智能系统进行更大监督的权力。
新成立的美国人工智能安全研究所将与国际同行机构共享信息并互助研究。

马斯克呼吁引入“第三方裁判”

参加会议的还有埃隆·马斯克和ChatGPT之父萨姆·奥尔特曼等科技大佬。
科技高管和领导人警告称,人工智能的快速发展如果不加以掌握,将对天下构成生存威胁,各国政府和国际机构必须采纳保障和监督方法。

目前针对人工智能大模型的发展紧张存在两派不雅观点:一派因此马斯克为代表的“风险警示者”,另一派因此谷歌、Meta等科技巨子企业为代表的“风险淡化派”。

马斯克在会上呼吁,引入“第三方裁判”对人工智能的风险提出警告。
他说道:“我不知道公正的规则到底是什么,但在进行监督之前,你必须从洞察风险开始。
”马斯克还表示,他不认为政府会在不知道该怎么做之前就匆忙制订人工智能的监管规则。

谷歌旗下人工智能部门Deepmind联合创始人穆斯塔法·苏莱曼则认为,当前的人工智能前沿模型不会造成任何“重大灾害性危害”。
但他表示,随着行业演习更大的模型,提前操持风险的应对办法是故意义的。

牛津大学互联网研究院(OII)互联网研究教授、贝利奥尔学院研究员威廉·H·达顿(William H. Dutton)11月2日在参加于沙特都城利雅得举办的一场环球网络安全论坛期间接管第一财经专访时表示:“关于人工智能潜在风险的炒作非常多,但人们必须搞清楚到底作甚风险、作甚机会。
这意味着我们须要更多的国际互换来理解人们对AI的想法。

在谈到马斯克提出的在AI管理方面引入“第三方裁判”的方法时,达顿表示:“我认为个中存在的问题是,这个裁判是否能够公正地进行监督。

学者呼吁建立国际监管机构

除了监管的必要性,《宣言》也高度强调了国际互助的主要性。
《宣言》称,由于人工智能产生的许多风险本身具有国际性,因此最好通过国际互助加以办理。

《宣言》建议,各国应考虑采纳有利于创新、适度的管理和监管方法,最大限度地发挥人工智能的效益,并考虑到人工智能的干系风险;通过现有国际论坛和其他干系倡议,包括未来的国际人工智能安全峰会,加强和保持互助,并扩大与更多国家的互助,以确定、理解并酌情采纳行动。

在峰会现场理解到,已有多位参加峰会的人工智能领域学者呼吁建立一个国际监管机构,监管人工智能的开拓和运用,详细内容包括:对前辈的人工智能系统进行逼迫注册,开拓时必须具备快速“关闭”功能,开拓者必须将一定比例的研究预算用于确保人工智能安全。

此前亦有称,英国政府对付本次峰会的目标之一,便是通过为期两天的峰会,呼吁各国互助,成立一个类似于政府间景象变革专门委员会的人工智能专家监测小组。

卡迈恩·文特尔对此表示,决策者须要考虑到人工智能的特质,也便是发展方向的不愿定性。
他认为,目前人工智能发展的速率远超预期,因此,正在谈论的法规和监管办法,该当是面向未来,并充分考虑到该领域的前沿研究。