图中的纵轴是有效打算(Effective Compute),以对数尺度显示,并归一化到GPT-4的水平
横轴是韶光,从2018年到2030年。
我们可以看到,AI打算能力在这一期间内呈现出指数级增长。
图中的蓝色曲线表示AI打算能力的增长轨迹,并显示出在未来几年内可能涌现的急剧上升。

图中用不同的标记指出了AI系统在不同打算能力水平下的智能表现。
例如,GPT-2被描述为“幼儿园学生”水平,GPT-3为“小学生”水平,而GPT-4为“聪明的高中生”水平。
这些描述帮助我们理解随着打算能力的增加,AI智能水平的提升。

图中还标注了几个主要的里程碑。
第一个是“自动化的Alec Radford”,指的是当AI系统达到某个关键点,能够自动进行高水平的AI研究和开拓。
这意味着AI不再仅仅依赖于人类研究者的创新,而是能够自我改进和进化。
第二个里程碑是“自动化的AI研究”,这是指AI系统不仅能进行一样平常的AI研究,还能进行超高效和创新的研究,推动自身能力的飞跃性提升。

最引人瞩目的是图的右上方标注的“超智能?”(Superintelligence)。
这表明在打算能力达到极高水平时,AI可能会超越人类智能,进入超智能阶段。
在这一阶段,AI系统不仅能理解和处理繁芜问题,还能超越人类的认知能力,带来前所未有的技能和社会变革。

这幅图展示了AI在未来几年可能经历的智能爆炸

通过这幅图,我们可以看到AI发展的潜力和寻衅。
智能爆炸的情景虽然令人愉快,但也带来了深刻的伦理和安全问题。
理解和预测AI发展的路径,制订适当的政策和方法,确保AI技能的安全和可控,是我们面临的主要任务。
智能爆炸可能带来巨大机遇,同时也哀求我们对AI的进展保持高度当心和负任务的态度。