首页 >要闻 > 内容

英特尔首次为机器学习工作负载设计芯片

要闻 2020-01-07 18:12:03

英特尔公司(Intel Corp.)今天在以色列海法举行的一场特别活动上悄然宣布了首个专用人工智能处理器。

Nervana神经网络推理处理器(图),也被称为“Springhill”,是在英特尔在海法的实验室开发的,据说是为运行AI工作负载的大型数据中心设计的。据路透社报道,它是基于一个改进的10纳米冰湖处理器,并能够处理密集的工作量,而只使用最低限度的能量。

英特尔表示,包括Face book Inc.在内的几家客户已经开始在其数据中心使用该芯片。

Nervana NNP-I芯片只是英特尔更广泛的“AI无处不在”战略的一个组成部分。芯片制造商已经采取了一种方法,包括使用混合的图形处理单元,现场可编程门阵列和定制的应用程序专用集成电路来处理人工智能中的各种复杂任务。这些任务包括创建用于语音翻译和对象识别的神经网络,并通过一个称为推理的过程运行经过训练的模型。

这是NervanaN NP-I芯片打算处理的最后一个过程。该芯片足够小,可以通过所谓的M.2存储设备部署在数据中心,然后将其插入主板上的标准M.2端口。这个想法是,英特尔的标准Xeon处理器可以从推理工作负载中卸载,并专注于更一般的计算任务。

Moor Insights&;Strategy的Patrick Moorhead表示:“大多数推理工作都是在CPU上完成的,尽管像Nvidia的T系列这样的加速器提供了更高的性能。“当延迟并不重要,而且原始性能更重要时,加速器就更好了。英特尔的Nervana NNP-I意在与NVIDIA甚至Xilinx FPGAs的离散加速器竞争。

英特尔说,NervanaN NP-I芯片本质上是一个经过修改的10纳米冰湖模具,有两个计算机核心,其图形引擎被剥离,以容纳12个推断计算引擎。当然,这些都是为了帮助加快推理过程,这就是为语音和图像识别等任务实现训练有素的神经网络模型。

星座研究公司(Constellation ResearchInc.)分析师霍尔格·穆勒(Holger Mueller)表示,这是英特尔的一个重要版本,因为它在AI推理方面基本上处于边缘地位。

穆勒表示:“英特尔正在汲取电源和存储方面的专业知识,并在其处理器套件中寻找协同效应。“由于Springhill是通过M2设备和端口部署的,这是几十年前被称为协处理器的东西,这实际上卸载了Xeon处理器。但我们必须拭目以待,看看Springhill与更专业的、典型的基于GPU的处理器体系结构有多好的竞争。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。