你有想过把AI放进你的口袋里吗?麻省理工的芯片实现了!
神经网络十分强大,但他们需要大量的计算能耗。麻省理工学院的工程师现在开发了一种新型芯片,可以将神经网络的功耗降低95%,这可能会使得它们在电池驱动的可移动设备上运行。
智能手机在这些年变的越来越智能,更多的人工智能技术为其提供服务,如数字助理和实时翻译。但通常情况下,处理这些服务数据的神经网络都在云端进行,通过智能手机的数据实现来回传送。
这并不理想,因为它需要大量的通信带宽,并且意味着潜在的敏感数据正在传输并存储在用户控制范围之外的服务器上。但是,GPU神经网络所需的巨大能量需要运行,这使得在有限的电池电量下运行的设备中实现它们是不切实际的。
麻省理工学院的工程师现在设计了一款芯片,通过大幅减少在芯片内存和处理器之间来回传输数据的需求,可以将功耗降低高达95%。
神经网络由成千上万层互相连接的人造神经元组成。每个神经元从它下面的层中的多个神经元接收输入,并且如果组合的输入通过某个阈值,则它将输出发送到其上的多个神经元。神经元之间连接的强度由训练期间设定的权重决定。
这意味着对于每个神经元,芯片必须检索特定连接的输入数据以及来自存储器的连接权重,将它们相乘、存储结果,然后为每个输入重复该过程。这需要大量的数据移动,同时也会耗费大量的能源。
新的MIT芯片消除了这种情况,它是使用模拟电路在存储器内并行计算所有输入。这显著减少了需要推动的数据量并且节省了大量的能源。
该方法要求连接的权重是二进制的,而不是一个范围的值,但以前的理论工作表明这不会大面积影响准确性,研究人员发现该芯片的结果一般在传统的非结果的2%到3%运行在标准计算机上的二进制神经网络。
这并不是研究人员首次创建能够减少神经网络功耗的芯片,但这是该方法首次用于运行强大的基于图像的AI应用的卷积神经网络。
IBM的人工智能副总裁Dario Gil在一份声明中表示:“结果显示,能量有效实现与存储阵列卷积运算的性能令人印象深刻。它肯定会为将来在物联网(物联网)中应用更复杂的卷积神经网络进行图像和视频分类开辟可能性。”
不过,这不仅仅是研究小组的工作。将智能手、家用电器和各种物联网设备等智能手机智能化的愿望正在推动“硅谷人”不断涌入低能耗的人工智能芯片行列。
目前我们熟知的苹果公司已经将其神经引擎整合到iPhone X中,为面部识别技术提供动力,而传闻亚马逊也将为下一代Echo数字助理开发自己的定制AI芯片。
大芯片公司也越来越倾向于支持机器学习等先进功能,这迫使他们使他们的设备变得更节能。今年早些时候,ARM发布了两款新芯片:Arm Machine Learning处理器,针对从翻译到面部识别的一般AI任务,以及ARM对象检测处理器,用于检测图像中的脸部。
高通公司最新的移动芯片Snapdragon 845,采用GPU,专注于人工智能。该公司还发布了针对无人机、机器人和工业设备的Snapdragon 820E。
更进一步的发展有,IBM和英特尔正在开发的神经晶体芯片,它的架构是受到人脑和其令人难以置信的能源效率的启发。这在理论上可以让IBM的TrueNorth和英特尔的Loihi在传统芯片的一小部分功率上运行强大的机器学习,尽管在现阶段它们仍然是属于高度实验的阶段。
让这些芯片运行的神经网络与在云服务中发现的神经网络一样强大,而不会在短时间内快速烧毁电池,这将是一个巨大的挑战。但是按照目前的创新步伐,在你的口袋里“装上”一些真正的人工智能所耗费的时间,并不会太久。