所有产品

Facebook称AI芯片仍处于初级阶段业界需要更多硬件

  雷锋网消息,在旧金山举行的国际固态电路会议上,Facebook AI研究团队负责人Yann LeCu

  雷锋网消息,在旧金山举行的国际固态电路会议上,Facebook AI研究团队负责人Yann LeCun表示,公司正在积极开展机器学习芯片方面的工作并对未来充满希望,相信芯片行业会有很多解决方案。

  对于谷歌和Facebook这样的公司来说,开发专用的AI芯片,显然是降低成本的需求,更重要的也是开发自身的定制芯片,以支持自家的AI程序。Yann LeCun在之前的采访中提到了自主芯片开发的可能性,不过他表示, Facebook的传统做法是与硬件供应商合作,希望与多家芯片公司合作开发新设计,吸引他们构建对公司有利的产品。

  AI芯片在未来会发展成什么样?在回顾了历史之后,Yann LeCun认为,首先我们迫切地需要低功耗芯片处理来自移动设备的所有传感器数据,因为一些数据对于带宽和延迟较为敏感,在发送到云端之前需要预先处理。

  而后,在计算的中间段上,通常是传统的离线神经网络训练和传统云端推理。这些任务都会消耗大量资源,因此科技公司急需获得更加高效的硬件。

  在深度学习食物链的最顶端,Facebook和亚马逊、谷歌的研发部门普遍需要在主流的NVIDIA GPU之外能有更多解决方案。当前,NVIDIA GPU是深度学习训练事实上的解决方案。Yann LeCun表示,并不是因为它们(NVIDIA GPU)在机器学习任务领域做的不好,而是因为我们需要未来计算的另一种思路,作为目前GPU短板的补充。

  下一代芯片的架构仍然是一个悬而未决的问题。显然,未来的神经网络体量将远远超过当前,因为我们可能需要输入整个视频的像素进行推理,从而预测视频片段的运动。但与此同时,这些操作可能必须在与当今基于矩阵乘法硬件不同的处理架构中进行计算。Yann LeCun认为,矩阵和张量是当今人工智能计算的基石,但在未来的AI计算中,它们可能并非最佳解决方案。

  他表示,当前的芯片基本上都是对大量4×4矩阵乘法进行优化,如果你可以把整个神经网络简化为4×4矩阵乘法,这些硬件当然很好用,但与此同时,这些硬件可能无法对大量卷积运算进行优化。

  怎样可以取代它们?Yann LeCun称目前还不知道,但他认为真正的硬件天才必须发明新的方法来做这些事情。

  在某种程度上,这和目前深度学习研究者在思考的执行操作相同:访问数据不再通过交互作用,而是通过纯粹数组。你所拥有的就是指针的数组,指向所需的数据,这对于处理基于计算图的数据非常有效。Yann LeCun称,这可能需要“智能缓存”等优化内存流量的方法,或提前研究图形的某些部分。

  计算的最后是乘法相加,问题是能不能把它简洁地写成一堆点积的形式,或者一堆矩阵-向量的乘法,或者一堆矩阵的乘法。目前的假设是,可以把它简化成一堆矩阵的乘法,但不认为这就是答案。

  Yann LeCun称,在整个AI的历史中,研究人员在该领域提出突破性见解之前,通常硬件方面已经取得了很大的进步。对新芯片设计和硬件架构的关注表明,我们需要在基本计算方面取得根本性突破,以防止今天的AI成为死胡同。

  他表示,无论新的芯片将以何种形式构架,他相信以AI为核心的硬件可能会接管越来越多的计算总体工作负载。

  标签:芯片 硬件 ai yann lecun 矩阵 facebook 解决方案 公司 神经网络 架构 机器学习 历史 谷歌 负责人 深度学习 供应商 低功耗 移动设备 人工智能