前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Google把AI芯片装进IoT设备,与国内造芯势力何干?

Google把AI芯片装进IoT设备,与国内造芯势力何干?

作者头像
AI科技大本营
发布2018-08-03 11:14:04
3770
发布2018-08-03 11:14:04
举报
文章被收录于专栏:AI科技大本营的专栏

一直以来,Google 就通过自研 AI 芯片以满足其神经网络日益增长的计算需求。北京时间昨日晚间,远在太平洋彼岸的 Google Cloud Next 2018 大会上,Google 正式对外宣布推出 Edge TPU,一款能使传感器和其他设备更快处理数据的 AI 专用芯片。

据了解,早在 2016 年,Google就发布了张量处理单元(Tensor Processing Unit,简称 TPU ),让大家首次认识到了 AI 专用芯片的能力。

从 TPU 的一路演进上可以发现,在 2015 年 Google 才刚开始内部投入使用,2016年初代TPU版本公布时还只能做些通过数据预测的事情,2017 年第二代版本则可被用来训练模型,甚至还能与英伟达显卡相媲美,到今年5月第三代版本推出时,由 TPU 3.0 组成的 TPU Pod 运算阵列,性能相比上一代提升了 8 倍,可提供 100 petaflops(千万亿次) 的机器学习硬件加速.

而此次 Edge TPU 的到来让我们看到,Google 又将目光转移到了网络终端的无数个物联网设备,并顺势推出了配套软件栈 Cloud IoT Edge。

相比来说,Edge TPU 是专门为在边缘运行TensorFlow Lite ML模型而设计,用来处理 ML 预测的微型芯片,要比训练模型的计算强度小很多。Edge TPU 可以自己进行运算,不需要与多台强大的计算机相连,因此应用程序可以更快、更可靠的工作。

Edge TPU开发套件:SOM和底板

在CNBC等多家外媒报道中透露,

Google 进军“定制芯片”市场,是其试图扩大云计算市场份额、与亚马逊和微软加强竞争的一种方式。自2015年以来,Google 始终在用 TPU 来加速自家数据中心的某些工作负载,而不是依赖英伟达等供应商提供的商用硬件。

接受CNBC采访中,三星前首席技术官 Injong Rhee 则表示,Google 并没有让Edge TPU 与传统芯片竞争,“这对所有硅芯片供应商和设备制造商是非常有利的”。

在他看来,Edge TPU 可能会“颠覆云计算竞争”,因为许多计算现在可以在设备上进行,而不是全部发送到数据中心。在成本和能耗方面,Google 芯片在某些类型的计算上比传统芯片更加高效。

那么回到国内,近段时间诸多AI领域的创业企业正暗暗打造自己的AI芯片,看到Google此举,是否有些许不安呢?

相关链接:

  • https://www.blog.google/products/google-cloud/bringing-intelligence-to-the-edge-with-cloud-iot/
  • https://www.cnbc.com/2018/07/23/google-cloud-team-builds-ai-chips-for-internet-of-things-devices.html
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-07-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技大本营 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档