前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >芯原戴伟民:“百模大战”实际是“群模乱舞”,是在浪费电!

芯原戴伟民:“百模大战”实际是“群模乱舞”,是在浪费电!

作者头像
芯智讯
发布2024-07-12 19:01:45
600
发布2024-07-12 19:01:45
举报
文章被收录于专栏:芯智讯

7月6日,在“世界人工智能大会”期间,由上海开放处理器产业创新中心、芯原微电子(上海)股份有限公司主办,中国RISC-V产业联盟协办的以“智”由“芯”生为主题的“RISC-V和生成式Al论坛”在上海世博中心召开。在此次论坛上,中国RISC-V产业联盟理事长、芯原创始人、董事长兼总裁戴伟民以《AIGC芯片的机遇和挑战》为题进行了分享。

自2022年底以来,随着以ChatGPT为代表的生成式AI的持续火爆,各大互联网巨头都纷纷加码生成式AI的研发。根据前 OpenAI 的安全研究员Aschenbrenner(于2024 年 4 月因“泄露信息”被OpenAI解雇)预测:在2025-2026年,人工智能将超过大学生智力水平;2027年,AI模型将能够完成人工智能研究人员/工程师的工作,届时一个领先的人工智能实验室将能在一分钟内训练出一个GPT-4级别的模型。

按照目前的生成式AI的技术路线,要想实现达到甚至是超越人脑的智能,就需要持续扩大模型的参数规模,这也给计算力的要求带来了指数级的增长。

公开数据显示,GPT-3拥有1750亿个参数,算力需求约为 315000百亿亿次;GPT-4约有1.7万亿个参数,算力需求约为 1.35亿百亿亿次;一个拥有10万亿参数的理论模型将需要 130亿百亿亿次的计算量,将需要1060万张NVIDIA A100 PCle 80GB芯片或3336个采用256 个Grace Hopper芯片的DGX GH200系统。如果要实现超级人工智能,可能将会需要1000万张H100加速卡,耗电会耗差不多相当于中国一个中等省份的电力消耗。这就会面临很多问题,到那个时候全球可能只有少数国家的少数企业才能够负担的起。

但是在现阶段,全球有非常多的企业都在研发自己的AI大模型,仅在中国市场,就有超过100款的AI大模型,可谓是“百模大战”。对于,芯原董事长戴伟民博士表示:“当前中国市场的‘百模大战’,我觉得更像是‘群模乱舞’,是在浪费电,实际上不需要这么多个。我们预计2028年中国基础大模型的数量将少于10个,最好是5个。”

至于生成式AI所需的算力芯片的发展趋势,戴伟民博士认为:“GPU/GPGPU并不是一定是Transformer的最优算力芯片,现在已经有越来越多的专用芯片开始出现(比如Groq“语言处理单元” LPU,Etched AI推出Transformer专用ASIC“Sohu”等),以挑战英伟达最先进的产品。”

“如果把树干比作通用大模型,树枝比作垂域大模型,树叶比作应用,那么就对应就需要有关键的“三张卡”,即对应的树干的云上训练卡、对应树枝的端上微调卡、对应于应用的推理卡。预计到2028年,端侧的微调和推理卡未来将远大于云上的训练卡。戴伟民博士形象的解释道。

从研究机构Counterpoint Research对于AI芯片市场的预测数据来看,在生成式AI驱动下,笔记本电脑、智能手机和服务器等关键市场的半导体收入将迎来快速增长,预计到2030年,关键计算领域的半导体收入将达数万亿美元,其中生成式AI将驱动服务器领域的半导体收入将增长至2024年的2.7倍;将使智能手机领域的半导体收入将增长至2024年1.86倍;将使PC领域的半导体收入将增长至2024年1.9倍。

戴伟民博士还围绕AI PC、AI手机、AI眼镜等几个关键终端应用,强调了AI技术将带来的巨大市场机会。以及在此趋势下,芯原作为半导体IP和设计服务供应商所能够提供的产品和服务,以及多个与客户在AI上的合作案例。

在AI所需的关键IP方面,芯原股份在嵌入式AI/NPU领域全球领先,其NPU IP已被72家客户用于128款AI芯片当中,主要应用于物联网、可穿戴设备、智慧电视、智慧家居、安防监控、服务器、汽车电子、智能手机、平板电脑、智慧医疗等10个市场领域。目前,集成了芯原NPU IP的AI类芯片已在全球范围内出货超过1亿颗。

除了专用的AI加速的NPU IP之外,在目前被广泛应用于通用AI加速的GPU方面,芯原也拥有一系列自研的GPU IP。芯原在GPU领域也已经耕耘了20多年,拥有70项国外专利,集成了其GPU IP的芯片已在全球累计出货近20亿颗,并进入了近千万辆汽车。

在目前生成式人工智能大模型在云端及边缘端蓬勃发展的趋势之下,芯原根据目前市场的需求,基于自身NPU IP可伸缩可扩展的特性,已发展了覆盖从高性能云计算到低功耗边缘计算的生成式AI解决方案,包括专门面向边缘端大模型的NPU IP——VIP9X00以及AI-GPU IP,以及面向云端大模型的Tensor Core GPU IP——CCTC-MP。

此外,戴伟民博士认为,Chiplet和先进封装也将是AI芯片发展所需的两大关键技术。目前,芯原拥有平台化的Chiplet方案及相关技术,可提供从Chiplet、Die-to-Die接口、封装到软件的整体解决方案,可以满足面向数据中心的高性能AIGC芯片需求,也可助力构建面向智能汽车的下一代智慧驾驶平台芯片。

另外,戴伟民博士还指出,目前CoWoS先进封装的产能紧张,并且成本高企,未来性价比更高的面板级封装需求未来将会迎来高速增长。

“生成式AI的未来充满无限可能。随着技术的不断进步和应用的深入,AI将在各个领域释放出巨大的潜力,推动人类社会迈向新的高度。如果说以苹果iPhone4(2010年发布)为代表的智能手机开启了移动互联网“牛市” (2013 - 2015年),那么以ChatGPT(2023年推出)为代表的大模型引领大算力硬件的“牛市”将引领下一轮牛市。”戴伟民博士在演讲最后这样预测到。

编辑:芯智讯-浪客剑

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-07-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 芯智讯 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
边缘可用区
腾讯云边缘可用区(TencentCloud Edge Zone,TEZ)是腾讯云的本地扩展,适用于解决计算、存储和服务可用性问题。腾讯云边缘可用区可为您带来云的诸多优势,例如弹性、可扩展性和安全性。借助腾讯云边缘可用区,您可以在靠近最终用户的地理位置运行对延迟敏感的应用程序,基本消除延迟问题。腾讯云边缘可用区提供与中心节点一致的体验,助力业务下沉,具备更低延时、更广覆盖、更少成本等特点。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档