安妮 陈桦 编译自 The Next Platform 量子位 报道 | 公众号 QbitAI 在上周召开的Google I/O 大会上,谷歌正式公布了第二代TPU,又称Cloud TPU或TPU 2。但是,谷歌并没有详细介绍自己的新芯片,只展示了一些照片。 The Next Platform今天发布一篇文章,基于谷歌提供的图片和细节,带你深入了解谷歌的TPU2。量子位编译如下: 首先要说明的一点是,谷歌不太可能向公众出售TPU的芯片、主板或是服务器。目前看来,TPU2还是一个只供内部使用的产品。只有极少数
案例是一个泰国网站的生产环境(请脑补一句“萨瓦迪卡”,为了叙述方便,下文中均以"萨瓦迪卡"指代这个网站。)“萨瓦迪卡”是一个 采用 Wordpress + MySQL搭建的应用。这个遗留系统已经工作了五年。客户已经把在其它 VPS 上平移到 AWS 上。平移(lift and shift)是说原样复制,而迁移(migration)还要进行改造。而客户唯一发挥 AWS 优势的一点就是用了一个配置很高的 EC2 虚拟机 —— m4.4xlarge。这样一台配置的虚拟机有 16 个虚拟 CPU,64 GiB 的内存,以及 2000 Mbps 的网络带宽,最高 3000 IOPS 的 200GiB 的块存储设备(也就是硬盘)。
选自The Next Platform 作者:Paul Teich 机器之心编译 参与:Nurhachu Null、黄小天 在最近的 2017 Google I/O 大会上,谷歌发布了 TPU2(第二代 TensorFlow 处理单元);近日,TIRIAS Research 的一位顶尖技术专家和首席分析师 Paul Teich 在 Nextplatform 发表文章,对 TPU2 机器学习集群做了深度揭秘,提出了一些不同观点,比如他认为 TPU2 是内部专属产品,Google 不太可能出售基于 TPU 的
选自Medium 作者:Eugenio Culurciello 机器之心编译 参与:Rick R、吴攀 在这篇文章中,作者Eugenio Culurciello简述了几类硬件设计,希望能为大家更快的运行神经网络提供洞见。 我喜欢深度学习... 深度学习最近取得的成功势不可挡:从图像分类和语音识别到图片标注、理解视觉场景、视频概述、语言翻译、绘画,甚至是生成图像、语音、声音和音乐! …而我想让它运行得飞快! 其成果令人震惊,因而需求就会增长。比如你是谷歌/ Facebook / Twitter 的工作人员
“随着DPU 越来越多地出现在大众视野中,期待未来可以看到加密/解密、防火墙、数据包检查、路由、存储网络等功能由 DPU 处理,”Turner 预测。
本篇内容,分享一台端午假期折腾的设备,HP Gen10 Plus v2,分享下我的折腾思路,希望能够帮助到有类似需求的你。
选自The Next Platform 机器之心编译 参与:王淑婷、刘晓坤 在今年的年度 I/O 大会上,谷歌给人留下深刻印象。它不仅推出了一系列基于 TPUv2 芯片的云计算 TPU 实例的基准测试,还透露了一些有关其下一代 TPU 芯片即 TPU3.0,以及其系统架构的简单细节。TIRIAS Research 的顶尖技术专家和首席分析师 Paul Teich 近日在 nextplatform 发文,对谷歌 TPU3.0 进行了深度揭秘。 谷歌将 TPUv2 版本升级为 TPU 3.0,但讽刺的是,据我们
64核AMD EPYC再次胜出,因为这款升级版芯片在没有增加能耗的情况下提升了性能。 互联网基础设施公司Cloudflare近日透露,它无法将英特尔放入其新的自制服务器中,原因是英特尔芯片的能耗实在太大了。 平台运营工程师Chris Howells在周二发布的博文中披露,自2020年年中以来,Cloudflare 一直致力于面向第11代服务器的设计。 Howells写道:“我们评估了英特尔最新一代的‘Ice Lake’至强处理器。虽然英特尔的芯片在原始性能方面能够与AMD相竞争,但每台服务器的功耗要高出数
为更好地理解能耗优化带来的潜在影响,我们一起回顾数据中心的TCO模型。在更高层面,数据中心总拥有成本分为投资成本(CAPEX)以及运营成本(OPEX)两大块。投资成本指的是需要提前支出,经过一段时间后折旧消耗掉的,比如数据中心的建设成本以及服务器的采购成本等;而运营成本则指设备投入实际运行后每个月的开销,比如电费、维修改造费、现场人员工资等等,数据中心TCO大约可以通过下面这个等式表达: 数据中心TCO = 数据中心折旧 + 数据中心运营成本 + 服务器折旧 + 服务器运营成本 本文简化了TCO模型只关注
链接:http://www.asrock.com/mb/Intel/J3455-ITX/index.cn.asp
NAS即网络附加存储(Network Attached Storage),通过网络提供数据访问服务。 本人不推荐自攒NAS,稳定性差,迷你主板和家用机电源不是for 24x7的。 本人也不推荐成品N
本篇文章,继续分享另外一台端午假期折腾的设备,HP MicroServer Gen10 一代。同样分享下我的折腾思路,希望能够帮助到有类似需求的你。
(接上文《Google对数据中心成本模型的分析——上》) 三、案例分析 虽然变量繁多,但通过观察不同行业的小部分数据中心案例,仍有助于我们理解这些成本因素的影响大小。首先我们看一个典型的新建于美国的,IT负载规模为几兆瓦的数据中心(大约是uptime institute Tier 3等级)。它装满了大量的机架式高端服务器产品(以某公司配置为2个CPU、48G RAM、四个硬盘的PowerEdge R520为例),其峰值功率大约为340W,某年的价格大约为7700美元,其它的一些变量参数如下: “ 1.某年美
由于英特尔的代工厂仍在努力赶上竞争对手台积电提供的工艺和封装,英特尔的服务器 CPU 产品线必须“利用”代工厂的现有资源,并创造出具有适当性能和价格组合的产品,以与 X86 领域的 CPU 竞争对手 AMD 和正在数据中心创建新 CPU 层的 Arm 集团竞争。
在人工智能热潮的大背景下,行业对 AI 计算集群的需求激增,对数据中心容量的需求也水涨船高,进而给电网、发电能力和环境带来了极大压力。数据中心容量严重制约着 AI 行业的发展,特别是在模型训练方面更是如此,因为用于训练的大量 GPU 一般需要放在一处才能实现速度飞快的芯片间网络连接。AI 推理能力则受到各个地区数据中心的容量的制约,新一代模型也进一步加重了推理层面的瓶颈。
---- 新智元报道 编辑:Aeneas 拉燕 桃子 【新智元导读】AI大牛李沐带你来装机! AI大牛沐神来装机了,还是训练100亿参数模型那种。 在还没出装机视频前,李沐老师曾发起了一个小小的问卷调查,趁着显卡降价,看下童鞋们对装机跑Transformer有多大兴趣。 当时,就连华为天才少年「稚晖君」都来点赞了,足见大家还是很期待的。 这不,沐神带着他的装机视频来了。怎样用最低的成本训练一个100亿模型? 而就在最近,币圈也在一直降温,同时GPU也明显降价了不少,就比如英伟达3090TI现
美国对中国的芯片技术出口管制,已经影响到了英国公司Arm,这可能造成未来一大批中国芯片公司因为无法获得该公司的芯片设计授权。
包括但不限于OpenAI、微软、xAI和Meta在内的多个头部公司都在争相建立超过10万卡的GPU集群,在这个规模上,仅仅是服务器的成本就超过40亿美元,还要受到数据中心容量和电力不足等多项因素的限制。
最近爆火的AI初创公司Groq,推出了比目前常见GPU推理系统快4倍,成本低70%的大模型推理解决方案。
在还没出装机视频前,李沐老师曾发起了一个小小的问卷调查,趁着显卡降价,看下童鞋们对装机跑Transformer有多大兴趣。
今年我决定给自己量身定制一台家庭网络存储服务器(也就是 NAS),预计存储容量有 32TB,并使用开源的操作系统,用来存储我的个人和商业数据。
作者 | 鸽子 2017年9月26日,英伟达GPU技术峰会GTC CHINA在北京开幕。英伟达创始人兼CEO黄仁勋发表主旨演讲《AI 的趋势、挑战与机遇》。 在他的演讲中,黄仁勋提到BAT已在各自的云服务中采用NVIDIA Volta GPU,研究人员和初创公司现在也开始租用云端最先进的AI基础设施,免去了建造超级计算机的复杂性和高昂费用。 此外,他还提到华为、浪潮、联想已采用NVIDIA基于HGX的GPU服务器,而对于需要专用AI超级计算机的企业,英伟达正在与中国主要的系统集成商展开合作,提供全面优化
作为俄罗斯最大的在线社交平台,VKontakte(意为“接触”,以下简称:VK)的全球注册用户超过了2亿,支持包括中文在内的86种语言。按照Alexa的数据统计,VK全球流量排名第14位,在俄罗斯则排名第一位。
深度学习是非常消耗计算资源的,毫无疑问这就需要多核高速的CPU。但买一个更快的CPU有没有必要?在构建深度学习系统时,最糟糕的事情之一就是把钱浪费在不必要的硬件上。本文中我将一步一步教你如何使用低价的硬件构建一个高性能的系统。
有人把云计算技术视为个人电脑、互联网之后的第三次革新浪潮,认为它即将甚至已经从根本上改变整个信息产业的格局,改变人类使用计算机的习惯和方式,因此云计算技术得到了迅猛发展。但是,它改变世界的同时,自己也需要被改变:由于云计算规模越来越大,它对能源与环境的影响已越来越突出,能效问题是云计算发展道路上必须要跨过的障碍。 在云计算出现之前,想要大量储存和处理数据只能自己搭建服务器系统。这不仅需要很多IT知识,还需要很高的成本,云计算技术的出现改变了这一切。所谓“云服务”,是指通过互联网,让很多用户共享软硬件资源,按
【新智元导读】密歇根大学两位计算机科学家,在本月初于旧金山举行的IEEE国际固态电路会议(ISSCC)上,介绍了仅有毫米大小的微型计算机。不仅体积小,原型产品仅使用几纳瓦的功率就能在本地运行神经网络,其产品有望让物联网和其他智能设备更加智能。 PDF:https://reconfigdeeplearning.files.wordpress.com/2017/02/isscc2017-14-7visuals.pdf 计算机科学家David Blaauw从他的包里拿出一个小塑料盒。他小心翼翼地用手指甲拿起里面的
2024年6月6日,以“绿色向新,释放新质生产力”为主题的英特尔®至强® 6能效核处理器新品发布会在北京举行。会上,英特尔重磅推出首款配备能效核的英特尔至强6(Xeon 6)处理器产品(代号Sierra Forest),为高密度、横向扩展工作负载带来性能与能效的双重提升,同时携手金山云、浪潮信息、南大通用,以及记忆科技等多家生态合作伙伴,分享基于该处理器的端到端创新解决方案,及其在诸多领域的实践成果与应用价值。
互联网的发展给大家带来的很多的便利,也有很多的业务机会,带来很多利益,但凡事都有两面性,有利益也会有危害,例如黑客会通过互联网进行攻击,导致企业损失。DDOS就是黑客常用的攻击手段,也是企业惧怕的一件事,如果真的不小心遭受到DDOS攻击,那么后果真的是会难以想象。黑客一般是会通过软件进行攻击,那么你知道常用的DDOS攻击工具有哪些?
每天给你送来NLP技术干货! ---- 作者:李沐,亚马逊首席科学家,来源:新智元 【导读】AI大牛李沐带你来装机! AI大牛沐神来装机了,还是训练100亿参数模型那种。 在还没出装机视频前,李沐老师曾发起了一个小小的问卷调查,趁着显卡降价,看下童鞋们对装机跑Transformer有多大兴趣。 当时,就连华为天才少年「稚晖君」都来点赞了,足见大家还是很期待的。 这不,沐神带着他的装机视频来了。怎样用最低的成本训练一个100亿模型? 而就在最近,币圈也在一直降温,同时GPU也明显降价了不少,就比
在谷歌发布TPU一年后,这款机器学习定制芯片的神秘面纱终于被揭开了。 昨日,谷歌资深硬件工程师Norman Jouppi刊文表示,谷歌的专用机器学习芯片TPU处理速度要比GPU和CPU快15-30倍(
1月11日下午,英特尔在北京召开了主题为“芯加速 行至远”的第四代至强新品发布会,正式推出代号为“Sapphire Rapids”的第四代英特尔至强可扩展处理器、英特尔至强CPU Max系列(代号“Sapphire Rapids HBM”)以及英特尔首个数据中心GPU Max系列(代号“Ponte Vecchio”),在实现数据中心性能、能效和安全性大幅跃升的同时,为AI、云、网络、边缘和全球领先的超级计算机带来全新功能。
机器之心报道 编辑:泽南 Zen 5 架构将会获得全面的重新设计,并使用 3nm 工艺节点。 昨天,AMD 举行了 2022 Financial Analyst Day,在为投资者举行的活动上,公司分享了桌面、服务器、图形和移动方面产品的最新路线图。 作为助力 AMD 复苏并重新成为 x86 处理器领域有力竞争者的芯片架构,Zen 是 AMD 从最小嵌入式 CPU 到最大企业级芯片的基础。因此,未来几年在 Zen 架构上发生的事情对 AMD 乃至整个行业来说都是一件大事。 Zen 4:提高性能效率,年内上
8年内,1.8万亿参数GPT-4的训练能耗,直接疯狂降到1/350;而推理能耗则直接降到1/45000
美国《IEEE科技纵览》杂志发表了Katherine Bourzac的一篇文章,称美国密歇根大学已研制出基于深度学习的物联网芯片。文章如下: 计算机科学家大卫·布劳(David Blaauw)从包里拿了一个小塑料盒。他小心翼翼地用指甲拿起里面的小黑点,放在酒店的咖啡桌上。这个只有1立方毫米大小的东西是世界上最小的计算机之一。我不得不小心地忍住咳嗽或喷嚏,以避免把它被吹走,掉进垃圾桶里。 布劳及同事都是美国电气和电子工程师协会(IEEE)高级会员、密歇根大学(University of Michigan)计算
英特尔首款10nm工艺的服务器处理器来了,基于Ice Lake的第三代至强可扩展处理器正式发布。
二十大报告指出,推动经济社会发展的绿色化、低碳化是实现高质量发展的关键环节。要大力发展绿色低碳产业,健全资源环境要素市场化配置体系,加快节能降碳先进技术的研发和推广应用,倡导绿色消费,从而推动形成绿色低碳的生产方式和生活方式。
DGX-2能够实现每秒2千万亿次浮点运算(2 PFLOPS),性能比去年9月推出的DGX-1性能提高了10倍,售价39.9万美元(人民币250万元)。
Linux是开源免费的一个操作系统,因为它稳定和安全,被广泛应用于服务器上。Linux还没有诞生之前,有一个操作系统叫Unix,Unix是最早由KenThompson、Dennis Ritchie和Douglas McIlroy于1969年在AT&T的贝尔实验室开发的。
目前国内外政策层面均已经关注到云计算这一高碳排放行业,并对云计算的低碳发展提出相关的政策要求和支持。主要集中在优化现存数据中心的能耗、限制新建数据中心的PUE以及推广可再生能源的使用三个方面。目前海外云服务商在节能减碳方面较为领先,多数头部云服务商均已达成碳中和的目标,下一步准备实现净零排放;国内云服务商均响应国家2030前实现碳中和的目标,承诺在2030年前至少实现自身运营的碳中和,并提出相关的节能减碳计划。
量子位 李林 | 编译自IEEE Spectrum 计算机科学家David Blaauw从包里拿出一个小小的塑料盒,打开,用指尖小心翼翼地捏起里面一个小黑点,放在桌子上。他在向IEEE Spectru
瓦利[1]是一款开源的 DevOps 代码自动部署工具,目前官方有两个新旧版本,分别是基于 PHP2 和 Python。
很多深度学习入门者或多或少对计算机的配置需求有一些疑惑。入门的硬性需求是什么,应该买什么样的电脑,什么样的显卡比较适合,自己的笔记本可以使用吗等等问题。这些问题之前我也有很多疑惑,现在总结了下,为大家稍微讲解一下所需要的配置,以及推荐清单。
第五代CoWoS封装技术将在今年晚些时候问世,与第三代封装技术相比,有望能够多存储20倍晶体管。
在计算机图形学顶会SIGGRAPH上,老黄宣布了英伟达最新的超级芯片NVIDIA DGX GH200 Grace Hopper。
作者:所罗伯·斯里瓦斯塔瓦(Saurabh Shrivastava)、内拉贾利·斯里瓦斯塔夫(Neelanjali Srivastav)
首先从一个比方来深入理解什么是DDOS。 一群恶霸试图让对面那家有着竞争关系的商铺无法正常营业,他们会采取什么手段呢?(只为举例,切勿模仿)恶霸们扮作普通客户一直拥挤在对手的商铺,赖着不走,真正的购物
2月20日消息,美国人工智能初创公司Groq最新推出的面向云端大模型的推理芯片引发了业内的广泛关注。其最具特色之处在于,采用了全新的Tensor Streaming Architecture (TSA) 架构,以及拥有超高带宽的SRAM,从而使得其对于大模型的推理速度提高了10倍以上,甚至超越了英伟达的GPU。
本文来自Nvidia GTC 21,演讲者是来自Facebook AI Reasearch的Bilge Acun。演讲主题是“FaceBook的深度学习大规模推荐模型”。
领取专属 10元无门槛券
手把手带您无忧上云