網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 中國(guó)品牌 > 品牌智庫(kù) > 正文

大模型為何成耗能大戶

大模型為何成耗能大戶

隨著人工智能技術(shù)快速發(fā)展,人工智能(AI)大模型的運(yùn)行消耗問(wèn)題受到越來(lái)越多關(guān)注。大模型為何成了耗能大戶?能耗問(wèn)題會(huì)不會(huì)成為人工智能發(fā)展的“絆腳石”?如何解決能耗問(wèn)題?

耗電耗水量大

人工智能大模型到底有多耗能?據(jù)斯坦福人工智能研究所發(fā)布的《2023年AI指數(shù)報(bào)告》,AI大語(yǔ)言模型GPT-3一次訓(xùn)練的耗電量為1287兆瓦時(shí),大概相當(dāng)于3000輛特斯拉電動(dòng)汽車共同開(kāi)跑、每輛車跑20萬(wàn)英里所耗電量的總和。報(bào)告同時(shí)提出,AI大語(yǔ)言模型GPT-3一次訓(xùn)練,相當(dāng)于排放了552噸二氧化碳。

國(guó)外研究顯示,一次標(biāo)準(zhǔn)谷歌搜索耗電0.3瓦時(shí),AI大語(yǔ)言模型ChatGPT響應(yīng)一次用戶請(qǐng)求耗電約2.96瓦時(shí),在AI大模型驅(qū)動(dòng)下的一次谷歌搜索耗電8.9瓦時(shí)。

除了耗電,另有研究顯示,AI大語(yǔ)言模型GPT-3在訓(xùn)練期間耗水近700噸,每回答20個(gè)至50個(gè)問(wèn)題就要消耗500毫升水。弗吉尼亞理工大學(xué)研究指出,Meta公司在2022年使用了超過(guò)260萬(wàn)立方米的水,主要作用是為數(shù)據(jù)中心提供冷卻。

據(jù)了解,人工智能大模型GPT-4的主要參數(shù)是GPT-3的20倍,計(jì)算量是GPT-3的10倍,能耗也隨之大幅增加。

華泰證券研報(bào)預(yù)測(cè),到2030年,中國(guó)與美國(guó)的數(shù)據(jù)中心總用電量將分別達(dá)到0.65萬(wàn)億千瓦時(shí)至0.95萬(wàn)億千瓦時(shí)、1.2萬(wàn)億千瓦時(shí)至1.7萬(wàn)億千瓦時(shí),是2022年的3.5倍和6倍以上。屆時(shí),AI用電量將達(dá)到2022年全社會(huì)用電量的20%和31%。

為何如此耗能

為什么人工智能大模型如此耗能?AI技術(shù)迅速發(fā)展,對(duì)芯片的需求急劇增加,進(jìn)而帶動(dòng)電力需求激增。同時(shí),對(duì)AI進(jìn)行大量訓(xùn)練,也意味著需要更強(qiáng)的算力中心和與之匹配的散熱能力。在AI快速迭代的道路上,電力和水資源的消耗也在快速增加。因?yàn)楹芏鄶?shù)據(jù)中心全年無(wú)休,發(fā)熱量巨大,大規(guī)模電耗和水耗主要來(lái)自于冷卻需求。

相關(guān)統(tǒng)計(jì)顯示,數(shù)據(jù)中心運(yùn)行成本的六成是電費(fèi),而電費(fèi)里的四成多來(lái)自冷卻散熱,相應(yīng)也會(huì)帶來(lái)巨量冷卻水的消耗。風(fēng)冷數(shù)據(jù)中心六成多的耗電量都會(huì)用在風(fēng)冷上,只有不到四成電力用在實(shí)際計(jì)算上。如今,全球數(shù)據(jù)中心市場(chǎng)耗電量是10年前的近10倍。

能耗問(wèn)題會(huì)不會(huì)成為人工智能發(fā)展的“絆腳石”?英偉達(dá)首席執(zhí)行官黃仁勛曾提到,AI和算力耗能巨大,但由于計(jì)算機(jī)性能飛速增長(zhǎng),計(jì)算會(huì)更加高效,相當(dāng)于更節(jié)省能源。當(dāng)前,我國(guó)實(shí)施嚴(yán)格的能耗雙控政策,無(wú)論是AI大模型本身還是其應(yīng)用行業(yè),對(duì)單位GDP能耗來(lái)說(shuō)均有明顯降低作用。

從整體能耗來(lái)看,AI大模型帶來(lái)的效率提升也會(huì)抵消一部分能耗增長(zhǎng)。隨著綠電廣泛應(yīng)用,再加上我國(guó)逐步由能耗雙控向碳排放雙控政策轉(zhuǎn)變,可再生能源對(duì)未來(lái)AI大模型發(fā)展的支撐能力也會(huì)越來(lái)越強(qiáng)。

此外,相較于其他國(guó)家而言,中美等能源消費(fèi)大國(guó)和數(shù)據(jù)大國(guó),具備更好發(fā)展AI大模型的資源條件和基礎(chǔ)。

怎樣應(yīng)對(duì)挑戰(zhàn)

據(jù)預(yù)測(cè),到2025年,AI相關(guān)業(yè)務(wù)在全球數(shù)據(jù)中心用電量中的占比將從2%增加至10%。到2030年,智能計(jì)算年耗電量將達(dá)到5000億千瓦時(shí),占全球發(fā)電總量的5%。因此,在大力發(fā)展AI大模型的同時(shí),必須提前做好相關(guān)規(guī)劃布局,以提供必要的電力和水資源等技術(shù)支撐。

有專家認(rèn)為,人工智能的未來(lái)發(fā)展與狀態(tài)和儲(chǔ)能緊密相連。因此,不應(yīng)僅關(guān)注計(jì)算力,而是需要更全面地考慮能源消耗問(wèn)題。OpenAI創(chuàng)始人奧爾特曼認(rèn)為,未來(lái)AI技術(shù)取決于能源突破,更綠色的能源尤其是核聚變或更便宜的太陽(yáng)能以及儲(chǔ)能的可獲得性,是人工智能發(fā)展快慢的重要因素。

為降低電力和水資源消耗,很多企業(yè)在嘗試采用各種方法為數(shù)據(jù)中心散熱。例如,微軟曾嘗試部署海下數(shù)據(jù)中心,臉書(shū)(Facebook)數(shù)據(jù)中心選址北極圈附近,阿里云千島湖數(shù)據(jù)中心使用深層湖水制冷等,我國(guó)很多企業(yè)則把數(shù)據(jù)中心布局在水電資源豐富的西南地區(qū)。

目前,可通過(guò)算法優(yōu)化、開(kāi)發(fā)和使用更高效的AI專用硬件、調(diào)整神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程以優(yōu)化計(jì)算資源等技術(shù)方式來(lái)降低AI大模型的能耗,并更多采用自然冷卻、液冷、三聯(lián)供、余熱回收等新興節(jié)能技術(shù),提高制冷效率以降低數(shù)據(jù)中心能耗。從技術(shù)未來(lái)發(fā)展方向上看,光電智能芯片也有助于解決AI大模型的電耗和水耗問(wèn)題。

AI大模型的發(fā)展,不能僅符合高端化、智能化的要求,更要符合綠色化的發(fā)展要求。為此,從國(guó)家和地方層面上看,為緩解AI大模型發(fā)展所帶來(lái)的電力和水資源沖擊,有必要將數(shù)據(jù)中心行業(yè)納入高耗能行業(yè)管理體系,并提前做好相關(guān)規(guī)劃布局。同時(shí),加強(qiáng)資源整合,充分發(fā)揮人工智能大模型和數(shù)據(jù)中心的效能,通過(guò)使用效能下限設(shè)置等方式,確保其自身的電力和水資源使用效率。還應(yīng)嚴(yán)格落實(shí)國(guó)家能耗雙控及碳排放雙控政策,并將其碳足跡與水足跡納入行業(yè)考核范圍,切實(shí)推動(dòng)碳足跡與水足跡逐步降低,以應(yīng)對(duì)日益增長(zhǎng)的AI大模型電力和水資源需求。

(作者系中國(guó)宏觀經(jīng)濟(jì)研究院能源研究所研究員)

[責(zé)任編輯:潘旺旺]
標(biāo)簽: 人工智能大模型   大模型   耗能   AI   人工智能(AI)