AI 是吃電怪獸也能幫省電?AI 的未來會變得更節能嗎?

據國際能源總署的數據顯示,自 2010 年以來,全球數據中心(Data center)所消耗的總電力,始終維持在全球總生產電力的 1% 左右。但這難道意味著,過去 10 多年來,人們對雲端運算的需求都沒有增長?

其實不然。據資料研究學家 Jonathan Koomey 的分析,2010 年至 2018 年間,全球資料中心產業的能源強度每年下降約 20%,也就是說資料中心、晶片和程式設計的能源運用效率,進步幅度超過了能源需求的增長。

不過隨著人們對 AI 的需求持續增長,這個耗電 1% 的平衡也許會被打破

運行 AI 可能需要多少電?

能源公司 Constellation Energy 最近發布的統計報告指出,美國未來運行 AI 所需的電力,可能會是美國電動車充電總量的 5 到 6 倍。

而另一更務實的預測是,阿姆斯特丹自由大學商業與經濟學院研究員 Alex de Vries 根據目前 NVIDIA 在 AI 晶片方面的銷售狀況,所做出的推估。他認為,不久後全球對 AI 用電需求量恐達 15 吉瓦(gigawatts),這約是一整個荷蘭所需的電量,而背後需要大約 15 座核電廠才能供應。

Alex de Vries 甚至指出,這數字可能被低估,因為在上述的推估中,僅止於晶片本身的耗能,這不包括數據中心內部,為了冷卻 AI 晶片,或其他維持周邊機器正常運作的必要耗能。Alex de Vries 認為隨著 AI 處理效能更強,其周邊額外所需的耗電,可能是總電量的 10% 到 100%。

(編按:NVIDIA 目前擁有資料中心 AI 晶片 90% 以上的市佔,Alex de Vries 將之做為整個產業用電量代表。 )

為了解決潛在缺電危機,微軟祭出核融合購電

而這還都只是針對 NVIDIA 至今為止的銷售狀況,所做出的推估,該公司在 AI 晶片產業目前為止雖掌握 9 成市占,但隨著 AI 競爭更趨蓬勃,也許未來會有更多 AI 晶片的供應商出現。尤其目前 AI 模型的競爭態勢,看來只會將用電需求推向另一高峰。

《華爾街日報》指出,微軟、OpenAI、Google 等 AI 服務供應商龍頭,目前的主要策略皆是競相推出一個更大、更耗電,促使用戶更加依賴它們的 AI 模型。因為 AI 模型一個基本原則是:模型越大,它能處理的事情就越多,也因為如此,它廣泛於各項任務上的平均表現也會越好。

如今幾乎每週都有新的、更大的 AI 模型問世,例如 12 月初 Google 發布的 Gemini AI,該模型宣稱能超越 OpenAI 於 10 月發布的 GPT-4V ,成為當前市場上最強大的模型。

為防範未來恐無足夠電能來運行 AI ,多家科技巨頭開始未雨綢繆。例如今年 5 月,微軟宣布與研究核融合發電技術的新創 Helion Energy 簽約,打算從該公司預計於 2028 年部署的首座核融合電廠購電。而該新創最後的大金主之一,也包含 OpenAI 執行長 Sam Altman。

然而也有些懷疑論者樂觀認為,現在就開始擔心 AI 將造成缺電危機,還言之過早。

掌握 AI 趨勢 & 活動資訊一點都不難!訂閱電子報,每週四一起《AI TOgether》

感謝訂閱!隨時注意信箱的最新資訊

AI 能幫忙省更多電,更有效率的 AI 模型也將出現

據《Fortune》報導,其他產業觀點指出,AI 自身雖是吃電怪獸,但與此同時,未來也將有不少產業受益於 AI 而變得更省電

像是 Google 在數據中心導入以 AI 為基礎的智慧冷卻節能系統,約替數據中心減少了約 40% 的能源消耗。

而調研公司麥肯錫的報告也顯示,受益於 AI 普及,未來廣泛的製造業,將變得更節能、有效率,整體而言大約能減少 10-20% 的溫室氣體排放。

再者,其他懷疑論者也認為,AI 應能比照數據中心的成長曲線,隨著需求攀升,人們同時也會設計出更省電、有效率的 AI 模型。市場現在同時也有許多公司力求模型更小、更精簡省電,而這些公司聲稱,這些縮小版的模型,在執行大部分的任務時也與大模型同樣有效。

像是微軟在 12 月中發佈一款名為 Phi-2 的小模型,該模型的訓練素材主要來自教科書內容,這使得它在執行學術相關問題的任務表現上,比其他更耗能的大模型來得好。

立即下載《2024 趨勢觀察報告》

【推薦閱讀】

ChatGPT 用起來很快很滿意,但問 20 個問題就耗掉 500 CC 水!1 億用戶累積水量更無法想像!

【AI 早你十個月知道帳戶問題!】金融上雲時代,銀行如何用新技術守護用戶資安?

 

*本文開放夥伴轉載,參考資料:《Fortune》《華爾街日報》《GreenBiz》。首圖來源:Canva

(責任編輯:廖紹伶)