3月10日消息,據(jù)媒體報道,OpenAI的熱門聊天機器人ChatGPT每天可能要消耗超過50萬千瓦時的電力。
作為參考,美國普通家庭的日均用電量僅為29千瓦時,這意味著ChatGPT的能耗是普通家庭的近1.7萬倍。
如果生成式AI被進一步采用,耗電量可能會更多。荷蘭國家銀行數(shù)據(jù)科學家Alex de Vries在一篇論文中估計,到2027年,整個人工智能行業(yè)每年將消耗85至134太瓦時(1太瓦時=10億千瓦時)的電力。這個電量足以匹敵肯尼亞、危地馬拉和克羅地亞三國的年總發(fā)電量。
不過,要準確評估蓬勃發(fā)展的AI行業(yè)的實際電量消耗并非易事,盡管大型科技公司在AI領域處于領先地位,但它們對于自身的能源消耗情況卻諱莫如深。
此外,不同的人工智能模型在運行方式上也存在巨大差異,這使得電量消耗的估算變得更加復雜。
另據(jù)New Street Research的數(shù)據(jù),英偉達在圖形處理器市場份額中占據(jù)了約95%的份額。de Vries估計,到2027年,整個AI行業(yè)的電量消耗將達到85至134太瓦時之間。這是一個相當可觀的數(shù)字,甚至可能占到全球電量的一半左右。