2024年8月,美国兰德公司发布了《4大技能的管理履历可为人工智能管理供应主要借鉴》报告,报告通过剖析核技能、互联网、加密产品和基因工程这4项技能的管理履历,评估它们与人工智能管理的相似性和差异性,并找出这些技能的管理履历可能对人工智能管理带来的启迪。元计策编译报告紧张内容,以期为读者磋商人工智能的管理路径供应参考。
一、序言 人工智能的能力日益增强,引发了如何最大限度地发挥其上风,同时最大限度地降落其可能带来的风险的问题。早期的管理模式在多大程度上适用于人工智能,将取决于人工智能的未来发展。如果人工智能具有造成广泛侵害的严重风险,须要大量资源来获取和利用,并且拥有可以监控的有形资产,那么这种人工智能可能适宜广泛的国际管理构造,类似于为核技能建立的管理构造。风险极小的人工智能可能适宜采取与为互联网创建的一样的管理模式。可获取但可能带来巨大风险的人工智能可能适宜采取与基因工程类似的管理模式,但利益干系者应谨慎采取与加密产品类似的管理模式。因此,政策制订者应关注人工智能的发展,在追求共同的管理规范并关注技能和环境变革的同时,利用他们所能吸取的其他技能的管理履历和教训。 二、4大技能的管理履历与人工智能 管理的干系性 核技能具有极高的安全风险,还具有独特的高资源哀求,并且须要可以掌握的有形资产。互联网的安全风险可能是4种技能中最低的。加密产品独树一帜,由于它内在地领悟了安全风险与经济风险的相互博弈。例如,在力求将安全风险降至最低的过程中,可能会不经意间加剧经济风险。只管加密产品依赖于有形资产(如打算硬件),但其本色上是“软性”资产的凑集,包括技能知识、算法及软件等,这些元素难以被直接掌控与管理。基因工程存在高度安全风险,但关于如何应对这些风险的共识却在瓦解。 (一)核技能 核技能与人工智能有三方面的相似之处: 1. 人工智能和核技能都是双重用场技能。这两种技能既有和平时期的用场,也有军事用场。 2. 两种技能都有极高的技能和专业知识门槛。 3. 一些人认为这两种技能都会给人类带来环球性的灾害性风险,乃至是生存风险。 以下是两者的一些差异: 1. 核技能的管理集中在军事运用上。虽然人工智能的军事运用早已成为话题的一部分,但迄今为止,人工智能在和平时期的商业用场主导了话题并推动了该技能的发展。 2. 核武器的终极产品是有形资产或可追踪事宜,包括裂变材料、核试验和运载系统。人工智能开拓的终极产品是数字资产,包括模型权重、代码和用户界面。 只管核技能开始接管多边管理,但决定权依然在国家手中。管理是由共识驱动的,特殊是安全利益应成为决策的驱动力,纵然在努力传播和平时期的运用技能时也是如此。只管个别国家的政策受到政治和海内规范的影响,但私人参与管理的机会很少。 在核技能管理的谈论中,灾害性风险比人工智能方面的类似谈论更为详细。人们描述了一些现实的、定义明确的场景,在这些场景中,征战国可能会利用成百上千件核武器,从而导致相互毁灭,并引发环球核冬天,威胁全体人类文明。目前,描述人工智能可能带来灾害性风险的情景缺少与核武器情景相同的细节、严谨性和对决策的明确适用性。核技能与人工智能所带来的风险不同,"大众年夜众对这两种风险的意见也不可能相似。 防扩散事情的终极重点是管理有形资产,而非科学知识和技能专长等无形资产。防止核武器专业技能扩散到其他国家的努力是必要的,但并不完美。当核机密保护失落败时,这种失落败是不可逆转的。此外,纵然不涉及盗窃和特工活动,核技能专门的研发事情也能取得相同的结果。只管美国不遗余力地防止核武器受限数据的传播,但防扩散事情的重点还是放在可以监测和掌握的实物上,即前文提到过的裂变材料、核试验和运载系统。如果在人工智能管理方面找不到类似的有形资产,那么核技能管理模式对人工智能的适用性将受到限定。 (二)互联网 互联网与人工智能有两方面的相似之处: 1. 这两种技能都可以被描述为信息和通信技能。虽然这两种技能都可能受到监管和掌握的实物资产的影响,但两者的终极产品都是无形资产。 2. 两种技能紧张是为非军事用场开拓的,其管理(尚未)由公共实体主导。 互联网与人工智能之间有一个关键的差异:在互联网出身之初,人类安全和国家安全并没有明显的风险。互联网的早期开拓者险些从一开始就关注广泛的隐私和信息安全问题,而互联网最初的目的是实现强健、有保障的通信。然而,直到良久往后,人们才开始关注安全和安保问题,例如网络物理系统与关键根本举动步伐之间的互动问题。互联网的利用给人类安全和美国国家安全带来的风险在互联网出身之初基本上是不可预见的,而人工智能从一开始就伴随着对人类安全和国家安全风险的观点化。 一些人建议,人工智能管理应采取与互联网管理相同的规范,乃至可能是相同的策略。虽然70多位学者签署的《关于人工智能安全性和开放性的联合声明》(Joint Statement on AI Safety and Openness)没有详细提及互联网,但它声称“为了减轻人工智能系统当前和未来的危害,我们须要拥抱开放、透明和广泛的访问”。联合声明认为,开放和透明是实现安全、保障和问责目标的最佳路子。然而,那些建议采取这种管理办法的人可能须要澄清,这种管理办法如何能够办理人工智能管理所涉及的重大风险问题。如果没有这样的考虑,可能无法就人工智能发展的某些领域达成共识,形成互联网管理的规范也可能不适宜不认同这些规范的竞争对手发展人工智能。事实上,国家间竞争(如人工智能“竞赛”)可能是人工智能发展风险的最大驱动力。人工智能互联网管理模式的支持者须要明确如何应对这种风险。 (三)加密产品 加密产品与人工智能有两方面的相似之处: 1. 这两种技能的终极产品都是非实物资产,只管这两种技能都在很大程度上以打算硬件为媒介。 2. 这两种技能都具有商业和军事双重用场,美国政府对这两种技能都有合理的国家安全关怀。 这两种技能还有以下显著差异: 1. 加密产品的开拓始于公共部门的国家安全用场,后来才逐渐显现出商业用场。 2. 加密产品传播的国家安全风险在规模上可能小于人工智能的风险。 鉴于以上这些异同,加密产品的管理可以解释两个适用于人工智能管理的主题。首先,就一项技能管理的规范达成共识对付管理的成功至关主要。加密技能管理最初的成功,可以切实归功于在不同利益干系者之间就规范达成共识的努力。但随着韶光的推移,这种共识并没有得到坚持,其失落败也导致了管理的失落败。其次,政府创造很难管理与加密产品干系的非实物资产。出口牵制终极未能有效阻挡有关加密算法及其利用软件的知识传播。 加密产品的管理履历为人工智能管理供应了警示。决策者该当当心任何严重依赖于掌握软件或模型权重等非物理资产分配的管理机制。更主要的是,决策者还应当心那些会造成国家安全与经济安全相互对立的政策困境的管理策略。相反,正如密码学管理的例子所示,美国的经济实力和竞争力应被视为国家安全的一部分。因此,人工智能管理计策必须设法避免安全与经济利益之间的冲突,并与私营部门利益干系者就规范达成共识。 (四)基因工程 基因工程与人工智能有三方面的相似之处: 1. 对付这两项技能,私营部门都是开拓的主导力量,但都须要国家和国际机构帮助制订辅导原则。 2. 研究职员和技能开拓职员每每自己指出这些技能的风险,包括与安全、伦理和国际竞争有关的风险。 3. 人类种系编辑和人工智能的商业环境有几个共同特点,包括大量的研发资金、对巨大利益的预期以及国际社会对研究的参与和兴趣。 基因工程和人工智能有以下显著差异: 1. 与人工智能不同,DNA重组技能和人类种系编辑不是双重用场技能。 2. 基因工程险些总是涉及物理实体的管理,如细胞培养物或人体受试者。涉及这些物理实体的事情(特殊是对人类子工具的临床试验)都有严格的法律法规,对事情进行有效的辅导、监督和掌握。 3. 基因工程研究职员对该技能可能带来的重大风险达成了广泛共识,纵然在如何应对这些风险方面研究职员仍存在不合。在人工智能领域,目前还没有类似的共识。 基因工程管理的履历表明,在对必须应对的风险缺少共识的情形下,停息人工智能的开拓和研究不太可能成功。事实上,已经有人提出过这样的停息令,但很快就被人们忽略了。如果涌现严重风险,并且就应对风险达成共识(例如,如果发生了一起事宜,使公众清楚地意识到人工智能带来的灾害性风险),结果可能会有所不同。然而,纵然如此,这种停息是否有用、能否成功,可能取决于是否存在值得相信的组织,这些组织能够就共同规范在利益干系者之间达成共识,并将这些规范转化为应对风险的准则和政策。 三、将4大技能的管理履历运用于 人工智能管理 人工智能的哪些成分可能会影响其未来的管理需求?本文考虑了以下三种情境: 情境1:人工智能对人类构成广泛侵害的严重风险,须要获取和利用大量资源,并涉及可监测和掌握的有形资产。 如果人工智能技能的获取和利用须要大量资源,具有双重用场,构成广泛的危害风险,并涉及可监测或掌握的有形资产,那么核技能管理的要素可能对人工智能管理有用。在这种情形下,人工智能的双重用场性子非常主要,即政府对影响军事上风和人类安全的技能运用非常感兴趣,特殊是与商业运用的经济利益比较。就避免某些安全风险的必要性达成共识,可能是匆匆使所有利益干系者,乃至是竞争对手制订共同管理机制的最主要动机。然而,目前尚不清楚人们是否同等认为人工智能的风险已经达到了非常高的水平。研究人工智能风险的专家们已经考虑到了人工智能失落控或人工智能与现有技能(如核技能或合成生物学)的结合所带来的灾害性或生存性风险的可能性。如果要将这些风险作为就人工智能管理规范达成共识的重点,可能须要进一步澄清这些风险。 人工智能的投契性或模糊性风险不太可能像核技能那样在管理方面形成强有力的共识。前沿人工智能模型在管理方面可能与核技能有更多相似之处,包括双重军事和非军事运用。如果是这样,而且各方都赞许有必要降落某些风险,那么成立类似于国际原子能机构的组织可能会促进负任务地开拓人工智能并分享其带来的好处。这样的倡议应旨在向其他国家担保,它们可以从该技能中得到广泛的利益,而无需建立可能会增加环球风险的自己的人工智能研发根本举动步伐。 情境2:人工智能发展带来的风险极小。 如果人工智能的发展对政府利益和人类安全造成的风险极小,那么互联网管理可能是人工智能管理的一个有益类比。在这种情形下,人工智能的利用可能仍旧存在利弊权衡,但它们并不涉及人类安全或国家安全,而且人工智能的双重用场特性在管理方面的意义也较小。在这些情形下,政府可能会探求机会,帮助或促进具有广泛潜在利益但缺少商业支持的人工智能方法,例如,通过帮助高风险、高回报的努力,或在商业投资下滑期间坚持研发)。在某些情形下,政府可能须要保护"大众年夜众利益,例如磋商与用户隐私或决策中的系统性偏见有关的问题。空想的情形是,政府将管理权下放给私营部门,特殊是下放给环绕共同的发展规范和基于共识的标准建立起来的社区和组织。这种授权取决于私营部门能否像互联网管理中的类似机构一样,形成能够通过协商同等进行管理的广泛社区。 情境3:人工智能在发展过程中险些没有竞争障碍,但对政府和人类福祉构成重大风险。 在这种情形下,加密产品的管理履历供应了警示。政府可能会找到一些有形资产作为掌握点,就像他们对互联网的一些有形资产所做的那样。然而,如果危险的人工智能模型终极可以利用通用而非专用打算硬件轻松创建,那么对干系有形资产的有效掌握可能无法实现。在这种情形下,激进的掌握方法可能会揠苗助长,导致国家安全与经济安全之间冲突。在这种情形下,基因工程的管理模式可能更有用。管理的重点可能是建立或加强公私互助伙伴关系,以便对某些类型的人工智能开拓或利用进行调度管理。美国国家标准与技能研究院、美国国家科学基金会和国家科学院等组织得到了私营部门和学术界的充分信赖,它们很可能建立负任务的人工智能发展规范和准则并使之成为正规化的实用工具。支持人工智能管理的国际组织也可以效仿天下卫生组织。然而,这种模式的风险在于就某些人工智能活动达成共识可能仍旧难以实现,特殊是在涉及伦理或哲学问题以及安全问题的时候。
免责声明:本文转自元计策。文章内容系原作者个人不雅观点,本"大众号编译/转载仅为分享、传达不同不雅观点,如有任何异议,欢迎联系我们!
转自丨元计策
研究所简介
国际技能经济研究所(IITE)成立于1985年11月,是从属于国务院发展研究中央的非营利性研究机构,紧张职能是研究我国经济、科技社会发展中的重大政策性、计策性、前瞻性问题,跟踪和剖析天下科技、经济发展态势,为中心和有关部委供应决策咨询做事。“环球技能舆图”为国际技能经济研究所官方微信账号,致力于向公众通报前沿技能资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er