近日,瑞典皇家科学院宣告,将2024年诺贝尔物理学奖付与美国普林斯顿大学的约翰·霍普菲尔德和加拿大多伦多大学的杰弗里·辛顿,以表彰他们“为推动利用人工神经网络进行机器学习做出的根本性创造和发明”。

↑美国普林斯顿大学的约翰·霍普菲尔德和加拿大多伦多大学的杰弗里·辛顿

诺贝尔奖评奖委员会表示:“今年物理学奖得主取得的打破建立在物理科学的根本上。
他们为我们展示了一种全新的办法,让我们能够利用打算机来帮助和辅导我们,应对社会面临的许多寻衅。

的确,两位科学家的研究领域和成果,看上去有些“不物理”。
比如,辛顿被视为由ChatGPT掀起的本轮AI技能跃进背后的奠基性科学家,被誉为“AI教父”。
而关注“AI教父”获诺贝尔物理学奖之时,辛顿的“AI威胁论”或许更值得关注。

快评丨获诺贝尔物理学奖的AI教父为何后悔研究AI

辛顿曾在谷歌事情十年,2023年5月,他从谷歌离职后,便持续公开呼吁谨慎对待AI技能,成为旨在勾引AI系统、使其行为符合设计者利益和预期目标的“AI对齐派”的代表。
他在社交平台上发文表示,自己离开谷歌是为了可以“公开地评论辩论AI的危险”。
辛顿曾直言,“我用平常的借口来安慰自己:就算我没做,别人也会做的……很难想象,你能如何阻挡坏人利用它(AI)来做坏事。

这样的辞吐并非骇人听闻,现已发生多起AI造假和骗局事宜,而且AI风险涉及到社会和个人生活的方方面面。
正如有专家所言,“当新闻、图像、音频、视频——任何事情都可以假造时,那么在那个天下里,就没有什么是真实的”。

对付AI的危险和人们利用AI的安全性,国际社会已有共识。
2021年,联合国教科文组织通过首份人工智能伦理问题环球性协议——《人工智能伦理问题建议书》。
个中提出,发展和运用人工智能要表示出四大代价,即尊重、保护和提升人权及人类肃静,促进环境与生态系统的发展,担保多样性和原谅性,构建和平、公道与相互依存的人类社会。
该建议书还包含了规范人工智能发展应遵照的原则,以及在原则辅导下人工智能运用的领域等。

研发和运用AI,要遵照适宜性(相称性)、安全、公正、透明、保护隐私和公道等原则。
比如,从适宜性,也即相称性和合理性来看,任何一项AI产品的研究和利用,都应证明选择利用人工智能系统和选用哪种人工智能方法具有合理性。
正如当下生物医学研究和医院治疗病人,在涉及生命和安全时要经由伦理委员会的谈论和批准,AI产品的发展也需经历必要的程序和步骤,避免造成社会惶恐、侵害、丢失乃至灾害。

未来,任何研究AI并推出AI产品的机构和个人,都应该以《人工智能伦理问题建议书》进行评估,而且在推向社会后,各国也须要有相应AI伦理指南的法律进行监管。
如此,才能让AI最大程度地造福社会,最小程度地侵害社会。

红星新闻特约评论员 张田勘

编辑 赵瑜

红星评论投稿邮箱:hxpl2020@qq.com

(下载红星新闻,报料有奖!