展开

关键词

成为谷歌的对手】谷歌 TPU 第二代PK胜算几何?

例如,2016 年 11 月,就对外公布了,谷歌选择使用的 Tesla P100 GPU 和 K80 加速为谷歌计算引擎(Google Compute Engine)和谷歌学习用户提供 实际上,不仅仅定位于硬件供应商,这家公司正在开发一个名叫 GPU (NVIDIA GPU Cloud,NGC)的,将配套提供 GPU(比如基于 Volta 的 Tesla V100 采取了与谷歌不同的方式,专注将 AI 计算力作为平台即(platform-as-a-service)来提供。 而支持各种不同的平台,包括亚马逊、微软、谷歌、IBM,给了用户在供应商(CSP)方面更多的选择。 相对于局限在谷歌中的 TPU,的开源让其产品成了 CSP 巨头,比如亚马逊和微软的选择。同时,谷歌平台还不如亚马逊和微软的平台那么成功,而这也将限制谷歌平台的发展。

49250

秀!黄仁勋烤箱里端出 7nm 芯片,AI 算力提升 20 倍

DGX A100系统的起售价为19.9万美元,已经开始销售DGXA100。19.9万美元看起来十分昂贵,但其实可以为提供商降低成本和功耗,这是提供商的痛点。 3两款边缘AI平台扩大生态系统面向边缘AI市场,此次GTC 2020推出了两款计算平台,分别是适用于较大型商业通用上的EGX A100和适用于微型边缘的微型EGX Jetson Xavier EGX Jetson Xavier NX没有采用最新GPU,不过称其为全球体积最小、性能最强大的Al超级计算机,适用于微型和边缘智能物联网盒。 这种架构的灵活性以及产品的灵活组合,能够让昂贵的GPU有高的性价比,而安培架构更好实现训练和推理性能的提升,也更有助于打造端和边缘端一体化的AI产品,保持在AI市场的竞争力。 可以看到,在端市场用安培架构GPU同时满足训练和推理需求,这将在端AI推理芯片市场占有优势的特尔带来更大的竞争压力,而想要挑战端芯片市场的AI芯片的初创公司难度也进一步升级。

20810
  • 广告
    关闭

    50+款云产品免费体验

    提供包括云服务器,云数据库在内的50+款云计算产品。打造一站式的云产品试用服务,助力开发者和企业零门槛上云。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    高光后再转身,的AI芯片进阶之路

    刨除用于PC游戏、影视的显卡产品,在其官网可以看到,的AI产品可被归类为:DGX系统、DRIVE PX、Jetson、Tesla、T4企业。 2018年,推出了基于Turning架构的端推理GPU产品Tesla T4,这也是T4企业产品的核心硬件构成。 简言之,上AI芯片是GPU的组合,端侧的AI芯片则是GPU、CPU、DRAM、闪存等在内的处理组合。在这里,我们需要区分一下GPU产品和Tegra处理。 ”系列芯片用于端推理……前有狼后有虎的危机下,在今年3月击败老对手特尔,以69.7亿美元的高价收购了以色列芯片公司Mellanox以提振数据中心的业,同时发布一系列端侧的AI芯片,强化端之外的边缘侧的布局 曾经主导端AI芯片市场的,在面对竞争对手的突围后,正在用端加边缘一体化的解决方案吸引更多客户,面向终端以及边缘端的Jetson系列产品就是的新武

    27110

    GPU技术大会感受--专注显卡解决方案十年,在人工智能上创造出另外一副天地!

    十年前谁也不会想到,人工智能让走到了风口浪尖 今天去了GTC(GPU技术大会),和大家分享下一些见闻。 如今的进入了高速发展阶段,但是谁也没有想到,在显卡上专注了十几年,居然在AI上有很大的发展,遥想当年,电脑上显卡和声卡是标配,显卡有和ATI,声卡称霸的是创新的,而现在基本已经听不到创新声卡的生意 顺便说下,GPU这个词,也是1999年最先提出来的。?大会开场先是一段震撼的视频然后黄老板上场了,因为黄老板是华人,大家可能觉得很亲切,全场一篇欢呼。? 搞人工智能还是要用GPU,比CPU强悍很多,关键还省钱。?AI城市?lsaac lab在虚拟环境中在虚拟环境,进行机人的智能测试,这个简直是***帝国的原型!? 围绕大智能处理,已经形成生态主流的厂商都推出了基于GPU主流的厂商,都推出了搭载GPU产品所有智能应用,底层都是GPU??

    21840

    【黄仁勋北京演讲】GPU帝国启幕,发布可编程AI 推理加速TensorRT 3(PPT实录)

    【新智元导读】GTC CHINA上,黄仁勋展示了强大的生态系统建构能力,在围绕GPU为中心的计算生态中:BAT已在中使用GPU,华为、浪潮和联想也都使用GPU,此外还有海康威视、科大讯飞和京东也都在积极使用 演讲中,黄仁勋特别提到了自动驾驶和自主机,这将是接下来发力的重点。2017年9月26日,北京,GPU技术峰会GTC CHINA 开幕。创始人兼CEO黄仁勋发表主旨演讲。 围绕着而生的GPU帝国似乎已经成型,他在现场宣布,中的阿里巴巴、百度和腾讯都已经在中使用GPU,另外华为、浪潮和联想也都采用GPU。?? 黄仁勋在现场说,神经网络的响应时间或处理延时会对质量造成直接影响。运行在V100上的TensorRT在处理头像时刻实现7ms的延时,在处理语音时延时报道200ms,这是标准的理想目标。 Tesla V100 GPU、可编程推理平台TensorRT 3,自动驾驶平台、自助机超级Soc Xviare,还有虚拟机人训练环境,可以说,的AI布局全线铺开,没有放过任何一块。

    41850

    仅售99美元:GTC上发布「最小 AI 计算机」,学生福利已来

    、分类和聚类的机学习算法所有机学习训练框架,此次发布之后,还可以自动优化 Tensor Core GPU推理和大规模 Kubernete 在端的部署个人电脑、工作站、超级计算机和企业数据中心上的数据科学亚马逊 面向 5G 的既然是 GTC 大会,就必然会推出新硬件。随着低延迟无线通信网络 5G 的临近,很多软硬件厂商一直推崇的「串流游戏」业也正逐渐变得现实起来。 有了合作伙伴,如何保证的工作效率?还推出了 RTX Server 来保证算力。? 这是一种性能强大的设计,在 8U 的空间里可以容纳 40 块 Turing 架构的 GPU(GeForce RTX 2080),而整个系统可以整合 32 套 RTX Server,在 10 个机架的空间内提供多 1280 块 GPU 的算力,之间使用 Mellanox 的技术实现高速连接。

    47620

    GTC中国站开幕:宣布TensorRT3、自动机处理Xavier

    「人工智能在过去的一年里发展很快,但是我们面临的挑战仍然很多,」人工智能产品负责人 Han Vanholder 表示,「目前我们使用的架构不是为人工智能任设计的,在这种情况下,如果想完成一种语音识别 宣称,在深度学习任中,HGX-1 与传统基于 CPU 的相比,性能可以提升 100 倍,人工智能训练任的花费为后者的 15,AI 推算的十分之一。 黄仁勋表示,每台 V100 可以为客户节省 50 万美元的成本。「科大讯飞、微信、京东、阿里巴巴等公司都已经在使用的最新产品了。」黄仁勋介绍道。 在本次大会上,也已宣布自己已经开始与阿里、百度、腾讯等平台展开合作,将搭载新一代 Tesla V100 芯片的大规模投入使用。? 在近日与谷歌在硬件中成新合作之后,我们必将看到这家公司在人工智能技术的发展中扮演越来越重要的角色。?本文为机之心报道,转载请联系本公众号获得授权。

    37290

    :比起股价,我们更关注计算的未来

    谈到深度学习机,我们首先想到的就是以 GPU 为核心的计算机。不过,早已不满足于芯片,近几年开始了垂直方向的扩展,我们可以在很多地方看到的软件、,甚至自动驾驶汽车。 AI 改变了的芯片、软件设计,也重塑了市场:2005 年的的算力输出基本全靠 CPU,而今天全球最强的两台超级计算机 Summit 和 Sierra 中,95% 的算力是由 GPU 很多公司为了构建购买了 HGX-2 平台,而百度和腾讯还将要开放基于 HGX-2 的计算。 30 天前,发布了 Tesla T4 计算 GPU称,仅仅一个月的时间里,各大商已经推出了 50 种该型号的计算卡。在国内,科大讯飞等公司已宣布开始使用这种 GPU

    21710

    性能提升20倍:GPU旗舰A100登场,全新7nm架构安培出炉

    另一方面,对于厂商来说,人们用算力来做的事总在不断变化,所以也难以设计专有优化的芯片架构。如何寻找一种可以适应更多应用方向的设计方案呢?三年前设计 Volta 芯片时已经思考了这一问题。 算了一笔账:今天的数据中心假如使用 50 个 DGX-1 系统(基于 Tesla P100)用于 AI 算法的训练,600 个 CPU 用于推断,硬件成本是 1100 万美元,需要使用 25 个机架 还宣布了 DGX A100 SuperPOD,面向更大的算力需求。 这样一组三周之内就可以建成。 在软件方面,推出了自己的语音交互框架 Jarvis,Apache Spark 3.0 现在推出了针对 GPU 的机学习支持。

    25030

    Nvidia发布可编程AI推理加速,推出自主机处理Xavier

    创始人黄仁勋,依然皮衣夹克,依旧跑步登场。 而且,搭配NVIDIA最新GPU的一台顶得上当前150台CPU。换个角度来说,采用GPU加速技术的一个数据中心所开展的推理工作相当于13个仅采用CPU的数据中心。? △ 的朋友圈1)中国提供商和OEM采用Tesla V100黄仁勋宣布,阿里、百度和腾讯均已在其中部署Tesla V100 GPU加速。 另外,包括华为、浪潮和联想在内的中国顶尖OEM均已采用NVIDIA的 HGX架构并使用Tesla V100 GPU来构建新一代加速数据中心。 △ 145家自动驾驶合作企业目前共有145家自动驾驶初创公司与合作;王劲的景驰科技同时宣布GPU Ventures在内的Pre-A轮5200万美元融资;4)物流?

    54060

    CPU与GPU、VCU的关系愈加“微妙”

    Ampere董事长兼首席执行官Renee James说:“我们知道未来将与过去不同,因为软件环境变了,不再是关于PC和PC的业,而是围绕边缘。现在,需要另一种不同的微处理。”? 整体看来,已经在PC和CPU市场大获成功的x86阵营正开始一场激烈的竞争。此时,面向计算、AI的Arm架构CPU迅速发展,要在新兴市场分一杯羹。 异构组合才能更好满足未来市场的需求,这也已经是业界共识,从特尔拥有CPU+GPU+FPGA+AI加速的完整芯片组合,到宣布收购Arm,再到AMD宣布收购赛灵思,芯片巨头们都希望通过不同类型的芯片组合满足计算 面向市场空间巨大的计算和5G市场,GPU依旧离不开特尔和AMD的CPU,但同时会更加注重Arm架构CPU的开发,芯片巨头间的竞合关系进一步加深。 谷歌表示,与特尔Skylake驱动的系统相比,其基于VCU的设备在性能、TCO(总体拥有成本)、计算效率方面实现了7倍(H.264)和高33倍(VP9)的提升。?

    10330

    苹果M1锤爆1080Ti?这回黄仁勋要和库克玩把大的!

    而最近,黄仁勋的游戏GeForce Now帮Epic绕开「苹果税」重返iOS,库克则是祭出M1芯片,机学习性能比肩1080Ti,苹果和之间要起纷争? 继谷歌平台和微软Azure之后,Amazon和Oracle也宣布,将全面提供基于NVIDIA A100™ GPU计算,黄教主押注数据中心,收效显著。 而的数据中心,可以为游戏提供强大的后台支持,玩家可以连接到数据中心上的游戏,然后方便地通过浏览进行操作。 艾斯勒说,现在 有22个数据中心提供这项,70个国家通用。要吃苹果蛋糕,库克能答应吗?库克反击:M1机学习性能已经追上1080Ti,老黄会慌吗? 库克也是老江湖了,不可能无视的一系列操作。苹果更多时候是作为一家软件供应商,但是特尔等硬件厂商一直在渗透苹果的业,也在倒逼苹果开发自己的处理

    14110

    业界 | 修改GeForce软件使用条款:禁止在数据中心运行深度学习等应用

    之心报道机之心编辑部据日本媒体近日报道,最近修改了其在 GeForce 系列显卡软件上的用户许可协议(EULA)上的部分条款,使得其在端除区块链软件以外,运行其他的所有程序均成为「未经许可的行为 这意味着开发者们在未来将难以利用端的 Geforce 显卡进行诸如深度学习模型训练等工作。这一行动被认为是在机学习上强推 Tesla 系列计算卡的举动。 由于类似性能的 Tesla 系列产品(不受此条款限制)要比 GeForce 价格贵上十倍,这或许意味着面向深度学习的价格将会大幅上涨,从而导致GPU 训练神经网络不再是一个相对划算的选择。 值得一提的是,目前的官网上显示,开发者们在 NVIDIA GPU Cloud 中仍然可以使用 GeForce 1080Ti、Titan Xp 与最新推出的 Titan V 进行端深度学习运算 对用户条款更新一事,机之心向做了求证,目前还未做出回应。 本文为机之心报道,转载请联系本公众号获得授权。

    42080

    修改GeForce软件使用条款:禁止在数据中心运行深度学习等应用

    之心报道机之心编辑部据日本媒体近日报道,最近修改了其在 GeForce 系列显卡软件上的用户许可协议(EULA)上的部分条款,使得其在端除区块链软件以外,运行其他的所有程序均成为「未经许可的行为 这意味着开发者们在未来将难以利用端的 Geforce 显卡进行诸如深度学习模型训练等工作。这一行动被认为是在机学习上强推 Tesla 系列计算卡的举动。 由于类似性能的 Tesla 系列产品(不受此条款限制)要比 GeForce 价格贵上十倍,这或许意味着面向深度学习的价格将会大幅上涨,从而导致GPU 训练神经网络不再是一个相对划算的选择。 值得一提的是,目前的官网上显示,开发者们在 NVIDIA GPU Cloud 中仍然可以使用 GeForce 1080Ti、Titan Xp 与最新推出的 Titan V 进行端深度学习运算 对用户条款更新一事,机之心向做了求证,目前还未做出回应。本文为机之心报道,转载请联系本公众号获得授权。

    29980

    发布史上最强GPU,却叫停了自动驾驶车路测

    这是业内首款能够提供每秒两千万亿次浮点运算(PFLOPS)能力的单点。 在深度学习处理能力上,一台 DGX-2 相当于 300 台传统的,但只占据 15 个数据中心机架空间,其重量为 350 磅(约 317.5 斤)。黄仁勋称,“DGX-2 是全球最大的 GPU。” ▌新的医疗影像平台和对外合作除了这些,还面向医疗机构推出 Project Clara 平台,其本质上是基于端的医疗影像成像还跟芯片设计公司 ARM 成合作,将开源的 NVIDIA 深度学习加速(NVDLA)架构集成到 Arm 的 Project Trillium 平台上,从而更好地实现机学习。 ▌暂停自动驾驶路测,用仿真模拟加速训练在自动驾驶领域,推出了基于的 DRIVE Constellation 驾驶仿真系统。

    471110

    7倍AI算力芯片,TensorRT重大更新,GTC新品全介绍

    在 GTC 上,宣布了与腾讯合作,推出 START 游戏,将电脑游戏体验引入端。业界领先的 GPU 将为全国百万玩家带来更好的游戏体验。 据介绍,GPU 技术为腾讯游戏的 START 游戏赋力,该已从今年初开始进入测试阶段。START 使游戏玩家可以随时随地,即使是在配置不足的设备上也能玩 AAA 游戏。 现场,方面展示了 OMNIVERSE AEC 开放式 3D 设计协作平台的强大功能,在配备了 8 路 RTX 8000 的 RTX 上针对深圳华润大厦的实时渲染过程。 今天,的 AI 已经覆盖了各行各业,影响了很多人。自 DGX 训练的神经网络,会在 HGX 端、EGX 的工业终端,以及 AGX 代表的消费端设备为人们带来自动化的便利。 最后,在这次 GTC 上,没有对旗下 GPU 产品进行制程上的更新。对此黄仁勋向机之心表示:「制程是很重要的,但是它不是最重要的。

    28630

    :游戏即将成为副业,人工智能驱动增长

    而比特币的疯涨也带来了对显卡的大量需求,甚至造成了“一卡难求”的局面,甚至推出了Pascal架构的显卡为矿工们。 当然,作为一家以设计图形处理为主的公司,也不会错过人工智能的风口。目前的业板块主要由四部分组成,游戏业、专业可视化业、数据中心业以及汽车业。 数据中心业板块作为目前最能赚钱的板块,其财报显示,在今年第一季度,数据中心业的营收增长了一倍以上,增长到了4.09亿美元。 表示,全世界各大互联网和提供商都在使用GPU芯片,其中包括AWS、阿里、谷歌、IBM、Facebook等企业。 但CEO黄仁勋却亲自撰文回应,表示TPU性能与GPU相去甚远,构不成威胁。此外,Intel等大牌厂商也推出了针对深度学习开发的芯片,但增速却远远不及

    37940

    刚刚,发布全球最强AI训练HGX-2,可替换300个CPU

    大数据文摘出品作者:魏子敏、龙牧雪还记得两个月前黄教主在硅谷发布的全球最大GPU DGX-2吗?重350磅,有汽车后备箱那么大!支持如此巨大GPU的计算平台当然也不简单。 根据的声明,GPU可以在ResNet-50训练基准测试中每秒处理15,500个图像,并且能够替换多300个CPU。 联想等厂商和富士康等制造商对这一计算平台抱有很高期望,在发布会上宣布,这些厂家已经与他们成合作,计划在今年晚些时候将基于HGX-2的系统推向市场。 毕竟黄教主是一个要把公司搬进一只GPU大楼的“芯片狂人”。是的,除了GTC的中国台湾发布会,今天,海外科技媒体techcrunch也曝光了的最新大楼。 建成后,这片联合办公楼的占地面积将到125万平方尺,Nvidia称,新大楼很大可能会用来容纳其不断增长的工程师团队。

    27420

    5 年提速 500 倍, GPU 创纪录突破与技术有哪些?

    这篇文章中,我们分享了实现 GPU 巨大的性能提升后,在 AI 社群中取得的一些进步:我们已经在单芯片和单上创造了 ResNet-50 的训练速度记录。 NVLink 高速互连结构允许我们将 8 个 GPU 作为单运行,实现性能扩展。 这些大规模的加速可以让深度学习的计算到 petaflop 量级的速度,并且在端和本地部署中都可以被广泛使用。 我们很快会将 16 块 Tesla V100 整合到一个单节点中,以创建世界上最快的计算,提供 2 petaflops 的计算性能。 除了在加速上的优异性能,GPU 的可编程性以及它在制造商和整个 AI 社群中的广泛使用,将带来下一场 AI 变革。

    15140

    除了TensorRT 3,还有在自动驾驶的最新动向

    AI科技评论按:今年是 GTC(GPU 技术大会)在中国举办的第二年。在 AI 革命势头正劲之际,创始人兼 CEO 黄仁勋亮相北京。 首日的GPU技术峰会上,由创始人兼CEO黄仁勋宣布了一系列重要消息,包括新版神经网络推理加速TensorRT 3,与国内OEM厂商联合推出基于 Tesla V100 的 HGX-1 加速 本文将围绕 TensorRT 3 与自动驾驶领域的最近进展做详细介绍。TensorRT 3 在GPU技术峰会上,黄仁勋正式发布TensorRT 3 神经网络推理加速。 二是智能机呈爆发性增长:AI会将智能诸如到2000万台、上亿台汽车和制造机人中;最终,以万亿计的物联网设备和传感将智能地监测一切,从心率和血压监测,到需维修设备的震动监测;AI推理平台必须可扩展 另外,现场他还提到,神经网络的响应时间或处理延时会对质量造成直接影响,运行在V100上的TensorRT在处理图像是可实现7ms的延时,在处理语音是延时不到200ms,这是标准的理想目标,单靠

    39570

    相关产品

    • GPU 云服务器

      GPU 云服务器

      腾讯GPU 云服务器是提供 GPU 算力的弹性计算服务,具有超强的并行计算能力,作为 IaaS 层的尖兵利器,服务于深度学习训练、科学计算、图形图像处理、视频编解码等场景……

    相关资讯

    热门标签

    活动推荐

      运营活动

      活动名称
      广告关闭

      扫码关注云+社区

      领取腾讯云代金券