首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

英伟达GPU陷入短缺:预计全球H100总需求43万张

北京时间2023年8月7日,英伟达(NVIDIA)GPU的短缺问题愈演愈烈,成为全球人工智能行业发展的关键瓶颈。

英伟达2023春季GTC大会上,CEO黄仁勋发布了一系列前沿技术和产品,其中最受瞩目的是为ChatGPT打造的、提速10倍的NVIDIA H100 NVLIN芯片。而与此同时,OpenAI等巨头对英伟达A100/H100芯片的需求持续增加,订单量惊人,超过数十亿美元。预计全球H100总需求43万张

短缺的根本原因

英伟达GPU短缺的主要原因在于行业需求的迅速增长与供应链的不足。在GPU市场乱象中,挖矿时代转向AI时代,GPU的算力再度成为宝贵资源,云厂商们的算力储备竞赛愈发激烈。

AI公司像OpenAI的算力需求巨大,仅ChatGPT每1亿活跃用户需要超过6.9万台NVIDIA DGX A100 80G服务器的算力支撑。而据传,GPT-5可能需要高达5万张H100芯片。因此,供应无法满足激增的需求,导致GPU的短缺局面。

 影响与挑战

GPU短缺对人工智能产业带来了巨大的影响。首先,AI企业的研发和生产计划受到了严重影响。缺乏足够的GPU资源,很多公司的项目延误,技术创新受阻。其次,GPU价格的上涨使得成本大幅增加,影响企业的盈利能力。此外,整个产业链都会受到波及,从芯片制造到数据中心建设,都面临着供需失衡的挑战。

解决方案与前景展望

面对GPU短缺的困境,行业需要寻找解决方案来平衡供需关系:

英伟达等芯片厂商需要加大产能投入,加快芯片的生产和供应。

优化GPU的设计和制造流程,提高生产效率。

AI企业可以考虑采用其他替代方案,如FPGA、ASIC等,以缓解GPU短缺压力。

政府与产业界可以加强合作,共同推动芯片产业的发展,以满足未来的算力需求。

老斜说

目前GPU短缺问题既有泡沫和炒作的成分,但是泡沫应该不大。

因为ChatGPT的火爆确实把整个AIGC市场炒火了,第二是因为算法升级需要更高的算力资源,所以GPU肯定不足。而且国内都有这么多大模型公司,GPU的短缺还是很合理。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OBKXifMS071KF9sa7NnRNmww0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券