首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI成吃電巨獸 恐加劇能源危機

圖:美國AI未來耗電量預計。

人工智能(AI)迅猛發展,一個不可避免的問題浮出水面:AI系統運行需要耗費大量的能源,尤其是電力。據估算,OpenAI旗下的聊天機器人ChatGPT,每天消耗超過50萬千瓦時的電力,相當一個美國家庭每日耗電量的1.7萬倍。以特斯拉創辦人馬斯克、OpenAI行政總裁阿爾特曼為代表的科技大佬們,紛紛對AI行業所面臨的能源危機發出警告,認為「新的能源危機到來」。專家預測,全球AI系統的電力消耗,或將很快相當於歐洲一個中等國家全年發電量。

【大公報訊】AI能力的提升,比拼的是算力,而強大算力的背後就是高耗能。以聊天機器人ChatGPT為例,其進行一次搜尋所需電量,是在谷歌引擎上進行一次搜索所需電量的10倍。據估計,ChatGPT目前每天回應約2億個請求,消耗超過50萬千瓦時的電力。而一個美國家庭平均每天的耗電量為29千瓦時(1千瓦時約為1度電),即ChatGPT日耗電量是每個家庭用電量1.7萬倍。

按照目前AI的快速應用趨勢,專家預計到2026年,AI消耗的電力將是2023年的10倍。因此,馬斯克在2月29日談及AI時表示,AI芯片短缺的情況可能已經過去,「明年,你會發現沒有足夠的電力來運行所有的AI芯片」。其實,從去年開始,馬斯克多次警告電力短缺問題,並預測美國2年內將爆發大缺電,到2045年美國的電力消耗將增加2倍,如果不盡快行動,將會阻礙AI和電動車發展。

阿爾特曼在1月份瑞士達沃斯會議上也稱,未來AI需要能源突破,因為其消耗的電力將遠遠超出預期。

2027年AI年耗電量可敵國

未來,AI對電力的「胃口」究竟有多大?荷蘭阿姆斯特丹自由大學商業與經濟學院研究員德弗里斯在去年10月發表論文,預測到2027年AI服務器的年均耗電量,可能相當於荷蘭或瑞典等國一個國家一年的總耗電量。

根據美國芯片製造商英偉達公布的數據進行粗略計算,單台英偉達DGX A100服務器的功耗為3至6.5千瓦,相當於數個美國家庭的用電量總和,而多個H100芯片可以在一台服務器上消耗超過10千瓦的電量。德弗里斯表示,英偉達在2023年生產了約10萬個H100類型的芯片,到2027年,其年產量或將增至150萬個。屆時,全球新建的服務器與AI相關的電力消耗,可能會增加85.4至134.0太瓦時(1太瓦時等於1億度電),該數字與荷蘭、阿根廷、瑞典等國家的年用電量相當。英偉達目前擁有數據中心AI專用芯片90%以上的市場份額,其用電量可作為整個AI產業的代表。

德弗里斯的計算,還不包括數據中心用於冷卻AI芯片的耗電量,因此AI用電數字可能仍被低估。據國際能源署(IEA)估計,到2026年,全球數據中心、AI和加密貨幣的耗電量將增加一倍。全球8000個數據中心中約有三分之一位於美國。微軟創辦人比爾蓋茨在上周劍橋能源周會上表示,電力是決定數據中心能否盈利的關鍵因素,而AI消耗的電力是驚人的。

能源供應恐將捉襟見肘

當下AI行業的龍頭OpenAI、Meta、微軟等公司完全沒有分享耗電相關的信息。這導致AI產業的具體耗電量很難估計,因為不同AI模型的運作方式存在差異,其耗電量也有不一。

近年全球極端天氣加劇,高溫、極寒、山火和乾旱都影響供電。另外,包括美國在內,很多國家的基建設施都面臨設備老化等問題,加密貨幣挖礦熱潮、電動車迅速發展在消耗大量的電,如果AI再加入「搶電」戰圈,能源供應將更加捉襟見肘。

業界估計,未來五年美國電力需求增長的預測比一年前翻了一番,新的人工智能數據中心、美國《通脹削減法》補貼製造工廠以及拜登政府推動的電動汽車轉型,都將使得電力需求激增,這對於美國清潔能源的過渡構成壓力。不過,這也可能進一步推動電力投資和轉型。阿爾特曼曾稱,AI的未來取決於能源方面的突破。科技公司如今已是能源公司的大型投資者。另外,許多科企都正在開發耗電更少的AI模型,即便如此,專家認為當前的業界仍缺乏相關的研發動力,只要行業內對高效模型的激烈競爭不減,全球AI產業對「搶電」的趨勢就沒有盡頭。 (綜合報道)

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OHM4JU0kAm3bMTlQ71WOhBzA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券