谷歌工程师:为机器学习研制的TensorFlow处理器全貌
今日是谷歌IO消息刷屏。云栖社区也特别挑选了一个最感兴趣的技术翻译出来!
摘要谷歌在I/O开发者大会上表示:已经开始为机器学习独家订制芯片——TensorFlow处理单元。其资深工程师Norm Jouppi在博客公布了TPU的细节和全貌,并得到了开发了Map Reduce和Big Table的Google技术大牛Jeff Dean的很高赞扬。
5月18日,太平洋时间上午十点,谷歌在I/O开发者大会上表示:已经开始为机器学习独家订制芯片——TensorFlow处理单元(TPU,业内也有翻译为张量处理器)。
谷歌硬件工程师Norm Jouppi在谷歌公布TPU后立即发博文表示:“我已经按捺不住我激动的心情,迫不及待地想向公众公布这项技术。它是一个我们专门为机器学习订制的处理器……” 并讲述了TPU的全貌。
机器学习为那些深受欢迎的谷歌应用提供了潜在魅力。实际上,从谷歌地图中的Street View技术,到谷歌邮箱中的Smart Reply,再到谷歌的语音研究等等,超过100个谷歌团队正在利用机器学习进行开发应用。
在谷歌,我们对有一点深信不疑:伟大的软件是由强大的硬件实现的。这就是我们当初为什么展开这个秘密项目的原因,我们渴望看到用我们自己定制的机器学习应用的加速器,谷歌究竟有多大潜力。
最终成果就是Tensor Processing Unit,(TPU),是一个专门为机器学习订制的芯片。可以说它是为谷歌的TensorFlow开源深度学习框架专门订制,而且这个名字灵感也是来源于此。我们已经在数据库内使用TPU一年多了,并且发现他们可以为机器学习上的功耗提供更好的性能和更加理想的优先级顺序。这项突破可以比拟如摩尔定律预测的未来七年科技突飞猛进所达成的成就。
TPU为机器学习应用独家订制,让芯片接受的更大量的计算,也就是说,它可以减少每次运行所需的晶体管数量。因此,同样的数量的硅芯片可以在每秒内提供更多的计算次数,也可以使用更复杂和强大的机器学习模型,并更快地适用这些模型。总的来说,用户可以在更短的时间内获得更加智能的结果。我们数据中心的支架有合适的卡槽可以将一块TPU嵌入硬盘的电路板卡入。
TPU电路板
TPU也是一个我们如何快速将研究转化为应用的例子——从第一块测试的硅片到我们的团队将它放入我们的数据中心快速运行只有22天。
现在TPUs已经使用于很多谷歌应用:它在人工智能系统RankBrain中增加了搜索相关度的,并在Street View技术中提高了我们地图与导航的精确度和质量。我们所熟悉的AlphaGo,在和李世石的围棋比赛中也用了TPU,让AlphaGo在比赛中想的更快,想的更远。
AlphaGo的装有TPU的服务器支架
我们的目标是引领机器学习领域,并让我们的客户也可以享受机器学习创新带来的完美体验。在我们基础设施中使用TPU,就像给谷歌的开发者们先进的加速功能,所以在开发运行像TensorFlow和Cloud Machine Learning的软件时,他们会更加得心应手。机器学习正在改变开发者编写智能应用的方式,所有消费者和客户也都受惠于这些应用。我们期待它将为生活带来的种种可能。
开发了Map Reduce和Big Table的Google技术大牛Jeff Dean也给予了TPU很高的赞扬。
这是分割线。海外媒体对这一消息的解读偏向于:
谷歌基础设施业务高级副总裁厄斯·霍泽尔(Urs Holzle)表示,过去一年,谷歌已经在其数据中心的服务器内部署了“数千颗”人工智能专用芯片,这种芯片名为TensorFlow处理器(TPU)。谷歌已经开始使用公司工程师设计的计算机处理器来提升人工智能软件的性能,可能会对英特尔、英伟达等传统芯片供应商的业务构成威胁。
编译自:https://cloudplatform.googleblog.com/2016/05/Google-supercharges-machine-learning-tasks-with-custom-chip.html
译者:Terry R. Guan 编辑:云栖社区云篆
如果发现原文翻译有误,请邮件通知云栖社区([email protected]),感谢您的支持。