首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI大模型“百花齐放”,底层算力需求与日俱增

今年以来,AI大模型在全球掀起一轮开发热潮,眼下正处于快速应用落地的关键期。月初在上海举办的世界人工智能大会集中展示了国内外总计30余款大模型,突显大模型赋能各行各业的多元生态。

展会上的火热程度仅仅是国内大模型快速发展的一隅。据不完全统计,从三月的文心一言拉开大幕算起,截止目前国内已经有上百个大模型产品问世。毫不夸张地说“百模大战”已然开启。

从短期来看,AI大模型无疑将成为人工智能核心产业发展“新引擎”。IDC预测,2026年中国人工智能软件及应用市场规模将达到211亿美元,人工智能将进入大规模落地应用关键期。未来在算力中心或者其他的细分领域,AI大模型必然是一个趋势。

AI大模型对于底层算力需求与日俱增

算力是人工智能产业创新的基础,大模型的持续创新,驱动算力需求爆炸式增长。可以说,大模型训练的效率或者是创新的速度,根本上取决于算力的大小。

在训练阶段,单次GPT-3 Small(1.25亿)计算量 2.6PFlops*天;单次GPT-3XL计算量为 27.5 Pflops*天;单次GPT-3(175B)计算量 3640 PFLops*天;PalM 模型(5400亿) 29600 Pflops*天。在推理阶段(日常运营),2023年1月ChatGPT官网总访问量6.16亿次,单月运营算力约为4874.4 Pflop/s。

有消息称,GPT-4达到了100万亿的参数规模,其对应的算力需求同比大幅增加。数据显示,大模型参数数量的增长与算力的平方成正比。

超大模型训练、推理需要消耗密集和昂贵的算力等资源,对算法本身提出了极高的要求。在海量数据上训练百亿、千亿、万亿的参数,对模型训练速度、模型精度以及训练资源成本都是极大的挑战。超大规模的模型参数,也让模型预测单次的成本与耗时都大幅提升,成为规模化的产业应用瓶颈。

随着投身AI大模型的公司如雨后春笋般涌现,再加上围绕大模型的人工智能生态和由此产生的用于推理的算力需求,未来的算力缺口将更加惊人。算力是否充足将决定各公司大模型产品的成败。

多家券商在近期研报中表示,大模型催生算力需求,AI产业需求持续爆发。国内大模型自研AI大模型进入“百花齐放”阶段,大模型的涌现开启了算力“军备赛”。

为全面助力大模型的发展,思腾合力与国内外知名芯片厂商合作,围绕算力底层技术支撑做了大量功课,持续在基础硬件方面提升实力,使得思腾AI算力服务器,可访问多个机器学习框架,大大加快训练速度,提升资源利用率,保障任务稳定性。

考虑到单AI芯片进步速度还未跟上大模型对大算力的需求,思腾合力在各个单点创新的基础上,充分发挥云计算与存储网络的综合优势,进行架构创新,将算力集群化,推出思腾合力服务器集群解决方案。

该方案可提供高性能计算能力,加速训练复杂的深度学习模型,优化大模型算法,以及处理大规模数据集,从而加快训练进度。集群允许并行处理多个任务,提高大模型推理效率。研究人员可以更快地调整参数,及时获取结果,从而加速训练进展。

未来,AI大模型需求会持续走高,思腾合力将会持续迭代产品、不断升级算力解决方案,适配支持更高效、更复杂算法的大模型,迎接大模型进一步引爆海量算力需求。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Od1EgWEtFfqc-Qu3VBDmqJJA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券