14纳米仿照AI芯片

随着AI技能的广泛运用,对能源和资源的需求也在不断增长。
特殊是在语音识别领域,软件升级虽然极大提升了自动转写的准确率,但由于须要在存储器与处理器之间移动大量的运算数据,硬件无法跟上演习和运行这些模型所需的数以百万计的参数。
为理解决这个问题,研究职员提出了一种名为“存内打算”(CiM,或称仿照AI)的办理方案。

仿照AI系统通过直接在它自己的存储器内实行运算,避免了在存储器和处理器之间移动数据的低效。
这种技能估量能极大提升AI打算的能效。
对此,IBM的研究团队成功开拓了一个14纳米的仿照芯片,该芯片包含3500万个相变革内存单元,能在34个模块中进行操作。

研究团队利用两个语音识别软件进行了测试,一个是谷歌的小网络,另一个是Librispeech的大网络。
当运用于更大的Librispeech模型时,该仿照芯片的性能超出了想象,能达到每秒每瓦12.4万亿次运算,系统性能估计最高能达到传统通用途理器的14倍。

AI模拟芯片能效达传统芯片14倍 语音识别效率拉满

研究团队总结道,这项研究在小模型和大模型中同时验证了仿照AI技能的性能和效率,有望成为数字系统的商业可行的替代选择。
这一打破性的创造,不仅为AI技能的发展开辟了新的道路,也可能将供应更高效、更环保的打算办法。