前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >文心一言算力从哪来?自家最大智算中心:算力规模4EFLOPS,base李彦宏老家

文心一言算力从哪来?自家最大智算中心:算力规模4EFLOPS,base李彦宏老家

作者头像
量子位
发布2023-03-21 17:10:21
2800
发布2023-03-21 17:10:21
举报
文章被收录于专栏:量子位量子位
明敏 发自 凹非寺 量子位 | 公众号 QbitAI

百度版ChatGPT底层算力支持,李彦宏老家阳泉助一臂之力!

量子位获悉,百度阳泉智算中心从2月底开始就布设了两个新机房,专门为自家大模型产品文心一言提供计算推理的算力需求。

同样功能的机房,在百度保定计算集群,还有两个

北京、华南的云计算资源也会为文心一言提供支持。

其中,阳泉智算中心是亚洲单体最大的智算中心,算力规模可达4EFLOPS(每秒400亿亿次浮点计算)。

而就在最近,微软也表示为ChatGPT专门打造了超算集群,由上万块英伟达A100组成,并专门为此调整了服务器架构。

那么百度的算力基础设施水平如何?

量子位刚刚从阳泉智算中心探访归来,给大家来波揭秘~

每秒400亿亿次浮点计算

据百度介绍,阳泉智算中心在3月份刚刚完成升级。

它是目前亚洲最大单体智算中心,算力规模达4EFLOPS(每秒400亿亿次浮点计算),整个建筑面积约12万平方米。

一共包括13个模组,可承载约28万台服务器。

智算中心采用CPU+GPU+XPU三种计算架构。

其中XPU应该主要指百度自家的昆仑芯,其产品一代二代均已实现量产,落地规模在2万片以上。

计算能力上,基于天蝎机柜服务器、“冰山”冷存储服务器和X-MAN超级AI计算平台等,可支持10G、25G的通用计算网络接入100G的AI高速无损网络的交换机

每秒可完成2000万亿次深度神经网络计算。

节能低碳方面,阳泉智算中心PUE可以低至1.08。(这一数值大于1、越接近1表示能效水平越好)

在供电上,阳泉智算中心去除了传统的UPS(不间断电源),采用HVDC offline(高压直流离线)技术、分布式锂电池(BBS)供电技术,把供电效率从90%提升到99.5%

同时采用太阳能光伏发电(阳泉日照比较充足),在顶楼铺设太阳能光伏面板,直接并网发电给服务器使用。

散热方面,由于阳泉年平均气温在8-12度,昼夜温差大,智算中心可以直接利用当地气候条件散热。

据介绍,全年96%的时间可以使用室外冷空气实现免费冷却,换算过来一年里有14.6天才需要全部开冷水机组制冷,从而节省了大量的能源。

技术人员表示,智算中心会按需发电和散热,日常运维也是基于AI来实现的。

自21年4月以来,阳泉智算中心正式投入使用。在去年12月起,开始对外开放服务。

当时项目计划投资为47.08亿元。

目前,阳泉智算中心可以支持各种AI应用场景,如语音识别、图像处理、自然语言处理和机器学习。为百度搜索、社区、推广服务等提供算力支撑。

云计算要借大模型的东风

无独有偶,微软也在近日公开了为ChatGPT专门打造的超算集群,包含了上万张英伟达A100

微软表示,他们给OpenAI提供这台超算已经有3年之久,而ChatGPT也正是基于这台超算提供的算力训练的。

此举背后,微软有两方面考量。

其一,吸引更多企业来使用Azure训练自己的大模型。微软执行副总裁Scott Guthrie表示:

虽然它是OpenAI的定制版,但同样具备某种通用性,任何企业都可以基于这种方式来训练自己的大语言模型。

其二,直接在Azure中提供OpenAI模型服务(Azure OpenAI Service)。

此前包括GPT-3、Codex和DALL·E 2等模型,都已经接入Azure。

至于纳德拉1月份立的“要把ChatGPT加入Azure服务”flag,目前也已经实现。

类比来看,百度想打的算盘,或许也不会局限在文心一言本身。

据介绍,为了支持文心一言的大规模智能算力需求,百度智能云已经完成了三大配套云服务。

  • 3月份升级阳泉智算中心;
  • 2月,百度智能云升级了AI研发运营一体化(MLOps)能力;
  • 去年12月,百度发布了全栈自研的AI基础设施“AI大底座”(阳泉智算中心搭载了这一底座)。

前段时间李彦宏内部信中还提到:

文心一言将通过百度智能云对外界提供服务,根本性地改变云计算市场的游戏规则。

这里的意思是,大模型浪潮将改变传统云计算服务看算力、存储的旧习惯,而是进入到看框架好不好、模型好不好,以及模型、框架、芯片、应用之间的协同的新游戏规则。

由此也可推理,百度寄希望于文心一言,向市场验证自家云计算能力,并吸引更多企业用户。

据介绍,百度搭建的“AI大底座”包括了百舸异构计算平台和AI中台两大部分。

百舸异构计算平台可以在AI计算、存储、加速、容器方面进行系统优化,承载数据处理、超大模型的推理和训练。

AI中台整合了飞桨深度学习框架和百度文心大模型,实现了从数据存储到模型训练、生产、部署、测试的全链路、批量化生产。

而百度智能云更具体的能力如何?

或许从文心一言上线后的表现就能略知一二了。

3月29日「中国AIGC产业峰会」

抢票开启

「中国AIGC产业峰会」定档3月29日,线下会场抢票开启!

百度袁佛玉、智源林咏华、澜舟科技周明、小冰徐元春、科大讯飞高建清、启元世界袁泉、云舶科技梅嵩、特赞王喆、微软关玮雅、源码资本黄云刚、元语智能朱雷、无界Ai马千里、Tiamat青柑、峰瑞资本陈石等来自产学研界大咖嘉宾,还有重磅嘉宾陆续确认中。

扫描下方二维码,报名峰会线下会场啦~

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-03-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 每秒400亿亿次浮点计算
  • 云计算要借大模型的东风
相关产品与服务
GPU 云服务器
GPU 云服务器(Cloud GPU Service,GPU)是提供 GPU 算力的弹性计算服务,具有超强的并行计算能力,作为 IaaS 层的尖兵利器,服务于深度学习训练、科学计算、图形图像处理、视频编解码等场景。腾讯云随时提供触手可得的算力,有效缓解您的计算压力,提升业务效率与竞争力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档