谷歌直言机器学习芯片使人工智能更快更高效

谷歌直言机器学习芯片使人工智能更快更高效


源 | SingularityHub  译 | 陈洁燕

谷歌最近展示了他们新研发的精细机器学习芯片 TPU 的内部运作原理——TPU是人工智能高端硬件设备领域里各大公司竞相逐鹿的方向。

 

TPU 即张量处理器(Tensor Processing Unit)。这一芯片被谷歌用于其对外开放的机器学习图书馆 “张量流” 以及自 2015 年起应用于谷歌数据中心。这个月初谷歌最终提供了这一芯片的运作表现。

谷歌直言机器学习芯片使人工智能更快更高效

 

谷歌说最新一代的 TPU 主要用在推理上 —— 使用已被训练过的神经网络来执行一些功能,例如在谷歌NOW中识别语音指令。谷歌说在执行那些任务时,TPU 比目前最新的 GPU 和 CPU 快 15 至 30 倍。而且,同样重要的是,TPU 也比它们高效 30 至 80 倍。

 

虽然 CPU 从 20 世纪 60 年代起被大量应用于计算机中,它们现在却无法很好地满足现代机器学习方法,特别是深度学习对于非常复杂的数学运算需求。

 

在 2000 年末,研究者发现图像卡片能更好地执行这些高度平行性质的任务。因此,GPU,图像处理器成为执行神经网络的前沿科技。但随着谷歌不断在机器学习领域发展,他们希望创造更能满足他们需求的东西。

 

领军的工程师 Norm Jouppi 在博客中写道:“早在六年前,当我们在我们的产品中越来越多地应用使用昂贵的数学运算的深度学习模型时,我们需要对TPU的需求。使用这些模型的数学运算费用让我们担忧。”

 

“如果我们假设人们每天使用谷歌语单搜索 3 分钟,我们将大量使用正在运行的处理器的语言识别系统的神经网络,我们将不得不翻倍我们的谷歌数据中心。”

 

比较而言,Nvidia 会认为这样的比较是不完全公平的。谷歌用它研发的 TPU 与英特尔的 Haswell CPU 以及 Nvidia K80 GPU 相比,因为 Nvidia 已更新了两代的 GPU。英特尔则保持沉默,虽然 Haswell 也是前三代产品。

 

NVIDIA 公司在博客中写道:“Kepler 代的 GPU 出品于 2009 年。它的问世让人们意识到使用图像处理器加速深度学习中的数学运算的可能性。但图像处理器并不是为深度学习的数学运算任务而优化的。”

 

为证明他们的观点,Nvidia 公司展示了他们旗舰产品,最新的图像处理器 P40,速度提升了两倍。可惜的是,TPU 在能耗方面还是完胜它。因此,毫不意外地谷歌公司已在使用 TPU 或者设计改良过的新一代 TPU。

 

但这并不代表 TPU 将颠覆芯片市场。谷歌公司不愿意把 TPU 销售给竞争对手,而是把它全面应用于推理。谷歌公司仍在培训中大量应用 Nvidia 公司的 GPU。这种现象很好解释了公司之间的竞争互存关系。

 

谷歌可能是世界上鲜有几个有经济实力和意愿在一个全新的领域从零开始研发产品的公司。但同时,它也是世界上最大的处理器采购商之一。因此,当谷歌公司决定自行研发芯片来满足自家的需求时,这是对芯片制造商的一个警示。

 

Steve Patterson 在《网络世界》上写道:“实际上,这只是部分设想。谷歌公司最新发布的研究文章是希望在机器学习社区和芯片制造商中引起更广泛的讨论。现在需要大批量生产具有推理功能的芯片。”

 

分析师 Karl Freund 在《福布斯》上写道:“这个设想并不遥远。深度学习市场快速增长,而且急需数学运算性能更好的芯片。因此,我认为这必然促使硅谷芯片生产商研究专用于深度学习领域的芯片。”

 

Nvidia 不可能拱手相让其在芯片市场的市场份额。今年晚些时候英特尔公司将发布其第一款以去年 8 月研发的 Nervana 技术的专用于深度学习的芯片。甚至有手机生产商也在这个领域开始大展拳脚。

 

Arm 公司的 Dynamiq 微体系结构芯片可让客户在芯片上加载人工智能加速器,应用于如 Smartphones 那些本土机器学习设备上。Qualcomm 公司的第零号项目发布了一套软件包。那套软件包可在如 Smartphones 和搭载了 Snapdragon 处理器的蜂窝媒等设备上运行深度学习程序。

 

谷歌发布的 TPU 将推动芯片制造商在正确的方向前进。

 

-END-

译者 | 陈洁燕

谷歌直言机器学习芯片使人工智能更快更高效

在追求完美理想主义的路上小碎步梦游的极简主义纠结天秤女...爱生活,爱自己和爱你。

后台回复 “志愿者”

了解如何加入我们

谷歌直言机器学习芯片使人工智能更快更高效