今天最成功的 AI 算法——人工神经网络大致是基于大脑复杂的真实神经网络。但和我们高效的大脑不同,在计算机上运行 AI 算法消耗的能量惊人:最大的模型在其生命期中消耗的能量几乎相当于五辆汽车。 更接近大脑设计原理和物理特性的神经形态计算可能会是节能 AI 的未来。神经形态设计不让数据在中央处理单元和内存芯片之间长途跋涉,而是模仿人类大脑中的果冻状物质的结构,计算单元(神经)被安放在内存旁边(存储在连接神经元的突触中)。为了让它们更像大脑,研究人员将神经形态芯片与模拟计算相结合,模拟计算可以处理连续的信号,就像真正的神经元一样。由此产生的芯片与当前依赖于 0 和 1 二进制信号处理的纯数字计算机的架构和计算模式有很大不同。
以大脑为向导,神经形态芯片有望能降低人工智能等数据密集型计算任务的能耗。不幸的是,人工智能算法在这些芯片的模拟版本上表现不佳,这是由于设备不匹配问题造成的:在芯片上,模拟神经元内的微小组件由于制造工艺而在尺寸上不匹配。由于单个芯片不够复杂,无法运行最新的训练程序,因此必须先在计算机上对算法进行数字化训练。当算法转移到芯片上时,一旦遇到模拟硬件上的不匹配,它们的性能就会崩溃。上个月发表在《美国国家科学院院刊》上的
一篇论文提出了一种绕过这个问题的方法。由 Friedrich Miescher 生物医学研究所的 Friedemann Zenke 和海德堡大学的 Johannes Schemmel 领导的一组研究人员表明,一种被称为尖峰神经网络的人工智能算法——它使用被称为尖峰的大脑独特的通信信号——可以与芯片配合学习如何补偿设备不匹配。这篇论文是朝着模拟神经形态计算人工智能方向
迈出的重要一步。