未來兩年內(nèi)將由“缺硅”變?yōu)?ldquo;缺電”,馬斯克的預(yù)言可能正在變成現(xiàn)實。
據(jù)《紐約客》雜志報道,OpenAI的熱門聊天機(jī)器人ChatGPT每天可能要消耗超過50萬千瓦時的電力,以響應(yīng)用戶的約2億個請求。相比之下,美國家庭平均每天使用約29千瓦時電力,也就是說,ChatGPT每天用電量是家庭用電量的1.7萬多倍。
實際上,此前就有數(shù)據(jù)顯示,ChatGPT訓(xùn)練時就已耗電量巨大。根據(jù)斯坦福人工智能研究所(HAI)發(fā)布的《2023年人工智能指數(shù)報告》,OpenAI的GPT-3單次訓(xùn)練耗電量高達(dá)1287兆瓦時(1兆瓦時=1000千瓦時)。
這是什么概念?知名計算機(jī)專家吳軍的形容并不夸張:大概是3000輛特斯拉電動汽車、每輛跑到約32萬公里的總耗電量。
國盛證券估算,GPT-3的單次訓(xùn)練成本就高達(dá)140萬美元,對于一些更大的LLM(大型語言模型),訓(xùn)練成本介于200萬美元至1200萬美元之間。
而業(yè)內(nèi)人士表示,大模型訓(xùn)練成本中60%是電費(fèi)。
訓(xùn)練完成后,ChatGPT也仍然需要大量的計算能力來運(yùn)行,并因此耗費(fèi)大量能源,OpenAI每天在ChatGPT上的花費(fèi)就高達(dá)70萬美元。
不僅ChatGPT的耗電量驚人,其他人工智能軟件的開發(fā)也在加劇對用電量的需求。以谷歌為例,其人工智能訓(xùn)練的耗電量占該公司總用電量的10%至15%,也就是每年耗電量在23億度左右,而這相當(dāng)于美國一個州首府所有家庭一年的用電量。
即使是由人工智能初創(chuàng)公司 Hugging Face 搭建的更為高效的BLOOM模型,耗電量也達(dá)到433兆瓦時,足以為一個普通美國家庭供電41年。
可以預(yù)見的是,如果生成式AI被進(jìn)一步采用,耗電量有可能會更多。所以,大家為人工智能所描繪的盛世圖景歡呼時,也應(yīng)留意到盤踞在其上方的陰影——電力成本。
一項研究曾指出,在未來幾年中,與人工智能相關(guān)的能源消耗很可能會顯著增加。到2027年,生成式人工智能所消耗的能源可以為荷蘭大小的國家提供一年的電力,相當(dāng)于約85-134太瓦時(TWh)。
所以,很多人正在擔(dān)心,隨著人工智能的突飛猛進(jìn),“電荒”會否真的發(fā)生。特斯拉CEO馬斯克就曾預(yù)言,未來兩年內(nèi)將由“缺硅”變?yōu)?ldquo;缺電”,而這可能阻礙人工智能的發(fā)展。在他看來,電力短缺可能會造成嚴(yán)重后果,就像最近缺芯阻礙科技和汽車行業(yè)一樣。