谷歌开放TPU应对英伟达GPU挑战

谷歌宣布将以“有限数量”向谷歌云客户开放张量处理器(Tensor Processing Unit,简称TPU)服务,按时收费,每小时成本6.50美元。

谷歌宣布张量处理单元(TPU)现在已经可以在谷歌云平台上供研究人员和开发人员试用,该模块是为谷歌服务(如Search、Street View、Google Photos和Google Translate)提供神经网络计算支持的定制芯片。

TPU是一个定制的特定于应用程序的集成电路(ASIC),专门为TensorFlow上的机器学习工作负载定制。谷歌两年前推出了TPU,去年发布了第二代云TPU。第一代TPU仅用于推理,而云TPU则适用于推理和机器学习训练。使用四个定制ASICs构建的云TPU提供了一个健壮的64GB的高带宽内存和180TFLOPS的性能。

在向公众开放之前,谷歌已经在内部广泛地实施了这些TPU。阿尔法狗(AlphaGo)使用48个TPU进行推断,在围棋游戏中击败了人类冠军。云TPU为缩短机器学习模型的训练时间提供了很好的解决方案。谷歌大脑(Google Brain)小组领导Jeff Dean在Twitter上发文说,云TPU可以在24小时内将一个ResNet-50模型训练到75%的精度。

当云TPU发布的时候,Google为机器学习研究人员提供了1000个免费设备。Lyft是美国第二大打车公司,自去年以来,一直在其自动驾驶系统中使用云TPU。该公司的软件自主驾驶5级主管阿南塔·坎切拉(Anantha Kancherla)说:“自从与谷歌云TPU合作以来,我们对他们的速度印象非常深刻——通常需要几天时间才能完成的工作现在可能需要数小时。”

位于纽约的对冲基金双西格玛的首席技术官阿尔弗雷德·斯佩克特(Alfred Spector)说:“我们发现,将张量流工作负载转移到谷歌TPUs,极大地降低了新模型的编程复杂性和训练时间,提高了我们的生产率。”

谷歌的云TPU目前还在测试版,仅提供有限的数量和使用。开发者可以每小时6.50美元的价格租用云TPU,因其拥有强大的计算能力,这似乎是一个合理的价格。

Google还发布了几个模型实现工具,以节省开发者的时间和精力为云TPUs编写程序,包括ResNet-50和其他流行的图像分类模型、机器翻译和语言建模的转换器,以及用于对象检测的RetinaNet。

尽管谷歌目前没有直接向客户销售TPU芯片,但它们的可用性对英伟达(Nvidia)仍是一个挑战,英伟达的GPU目前是世界上使用最多的AI加速器。甚至Google也使用了大量的英伟达GPU来提供加速的云计算服务。然而,如果研究人员像预期的那样从GPU切换到TPUs,这将减少Google对英伟达的依赖。

2017年,谷歌(Google)吹嘘它的TPUs比当代的GPUs和CPUs快15至30倍,TOPS/Watt标准提高了30–80倍。在机器学习训练中,云TPU的性能(180比120TFLOPS)比Nvidia最好的GPU Tesla V100的内存容量(64GB比16GB)高4倍。

虽然现在将云TPU誉为AI芯片冠军还为时尚早,但它的发布让研究者们兴奋,标志着谷歌雄心勃勃的进军人工智能加速器领域的开始。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180323G15B5O00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券