神经|英特尔发新神经形态芯片,31mm2容纳100万人工神经元

近日,英特尔发布了第二代神经形态芯片Loihi,面积为31mm2,最多可封装100万个人工神经元,而上一代面积为60mm2,支持13.1万个神经元。同时,Loihi 2比上一代快10倍,资源密度提高了15倍,且能效更高。


神经|英特尔发新神经形态芯片,31mm2容纳100万人工神经元
文章插图

Loihi 2有128个神经形态核心,相较于第一代,每个核心都有此前数量8倍的神经元和突触,这些神经元通过1.2亿个突触相互连接。据英特尔的早期评估,与在第一代Loihi上运行的标准深度网络相比,在准确性没有降低的情况下,Loihi 2上每次推理运算的次数减少到原来的至少60分之一。


神经|英特尔发新神经形态芯片,31mm2容纳100万人工神经元
文章插图

英特尔神经形态计算实验室总监Mike Davies表示:“第二代芯片极大地提高了神经形态处理的速度、可编程性和容量,扩大了在功耗和时延受限的智能计算应用上的用途。英特尔正在开源Lava,以满足在实践中对软件融合、基准测试和跨平台合作的需求,并加快商业可行性的进程。”


神经|英特尔发新神经形态芯片,31mm2容纳100万人工神经元
文章插图

为什么需要神经形态芯片?
在曾经很长一段时间内,规则式(rule-based)方法都在人工智能领域占据主流,对计算机进行编程需要编写分步说明。以教计算机学会识别狗举例,这会涉及列出一组规则来指导其判断,如检查它是否有四只脚等等。但如果计算机遇到一只只有三只腿的小狗怎么办?这时也许就需要更多规则,但是列出无穷无尽的规则,并让计算机每次做出类型决策时都重复该过程是低效且不切实际的。
而人类的学习方式则与此相异,在区分狗与猫时无需被告知任何相关规则,于是学习人类大脑的运行方式成为人工智能发展的一个重要方向。


神经|英特尔发新神经形态芯片,31mm2容纳100万人工神经元
文章插图

许多简单的单元(“神经元”)连接到许多其他单元(通过“突触”),一个神经元接收来自许多其他神经元的信号,当刺激达到某个阈值时,它会将自己的信号发送给周围的神经元,大脑则通过调整神经元之间的连接强度来学习。


神经|英特尔发新神经形态芯片,31mm2容纳100万人工神经元
文章插图

康奈尔大学的神经生物学家Thomas Cleland曾说,神经形态计算(Neuromorphic Computing)“将成为摇滚明星”,“它不会把一切都做得更好,但它将完全拥有计算领域的一小部分”。
然而模仿大脑的计算成本非常高,人脑有数十亿个神经元和数万亿个突触,即使模拟一小块大脑也可能需要对每块输入进行数百万次计算。运行所有这些小计算并不适合必须一次处理一条指令的经典计算架构(CPU),而今天常用的图形处理单元(GPU)仍然没有像大脑那样有效地执行深度学习——人类的大脑可以一边驾驶汽车,一边谈论自动驾驶的未来,但使用的瓦数比灯泡还少。


神经|英特尔发新神经形态芯片,31mm2容纳100万人工神经元
文章插图

于是,解决神经形态计算问题的芯片出现了。最初是在20世纪80年代,工程师Carver Mead创造了术语“神经形态处理器”(neuromorphic processors)来描述以基于大脑的松散方式运行的计算机芯片,为这个领域奠定了基础。
神经形态芯片如何运行?
Loihi芯片包含通过通信网络连接的128个独立内核,每个独立内核中都有大量单独的“神经元”或执行单元,每一个神经元都可以接收来自任何其他神经元脉冲形式的输入——同一核心中的邻居、同一芯片上不同核心中的一个单元或完全来自另一个芯片。随着时间的推移,神经元会整合它接收到的尖峰信号(Spiking Signals,神经元通过跨突触相互发送尖峰信号进行交流),并根据其编程的行为来确定何时将自己的尖峰信号发送到与其连接的任何神经元。