最近關於 ChatGPT 耗電量的討論再次浮上檯面,這次的焦點在於重新評估這項 AI 服務對環境的影響。先前不少報告指出,ChatGPT 回答一個問題可能消耗 3 瓦時的電力,相當於 Google 搜尋的十倍,這個數字引起了不少關注。
不過,Epoch AI 近期的一項研究卻挑戰了這個說法。他們發現,使用 OpenAI 最新的預設模型 GPT-4o,平均每次 ChatGPT 查詢僅消耗約 0.3 瓦時。Epoch AI 的數據分析師 Joshua You 認為,相較於家用電器或汽車,AI 的能源消耗其實並不算高。
這個發現相當重要,因為它推翻了一些過時的研究。這些研究可能基於 OpenAI 使用較舊、效率較低的晶片來運作模型的前提。Joshua You 提到,雖然過去的討論正確地預測了 AI 未來會消耗大量能源,但可能沒有準確描述當前 AI 的能源使用情況。例如,先前估計的 3 瓦時/每次查詢是基於較舊的研究,而且從簡單的估算來看,這個數字可能過於誇大。
當然,影響 ChatGPT 耗電量的因素有很多。Epoch AI 強調,0.3 瓦時只是一個近似值,因為 OpenAI 並未公開詳細的計算數據。此外,這項分析也沒有考慮圖像生成或輸入處理等額外功能的能源成本。較長的 ChatGPT 查詢,例如附加長文件的查詢,肯定會消耗更多電力。Joshua You 也承認,如果輸入的資料很長,像是附加檔案,耗電量肯定會增加。這意味著不同的使用情境和模型複雜度都會影響 ChatGPT 的耗電量。
即便目前 ChatGPT 的耗電量可能不如預期,Joshua You 仍然預計,隨著 AI 技術的進步,未來的耗電量可能會上升。他指出,更先進的 AI 需要更多的能源來訓練,並且可能被更密集地使用,處理更複雜的任務。
Rand 的一份報告預測,未來幾年 AI 資料中心可能需要龐大的電力供應,甚至可能達到加州 2022 年的總發電量。OpenAI 和其他公司也正投入數十億美元建設新的 AI 資料中心,以滿足不斷增長的伺服器需求。
值得注意的是,OpenAI 等公司正轉向推理模型,這些模型功能更強大,但也更耗電。與 GPT-4o 等模型幾乎即時回應查詢不同,推理模型在回答之前需要「思考」幾秒甚至幾分鐘,這個過程會消耗更多的計算能力和電力。即使 OpenAI 正在發布更節能的推理模型,例如 o3-mini,但效率的提高可能無法抵消推理模型「思考」過程和全球 AI 使用量增長所帶來的電力需求增長。
那麼,我們該如何降低 AI 的能源足跡呢?Joshua You 建議,可以減少使用 ChatGPT 等應用程式的頻率,或者選擇需要最少計算的模型,例如 OpenAI 的 GPT-4o-mini。此外,他也建議謹慎使用這些模型,避免需要處理或生成大量數據的方式。
總體而言,這篇文章提醒我們,在追求 AI 技術發展的同時,必須關注其對環境的影響。雖然目前的 ChatGPT 耗電量可能不如先前預期,但隨著 AI 技術的不斷進步和應用普及,能源需求仍可能大幅增加。因此,我們需要積極尋找降低 AI 能源足跡的方法,例如開發更節能的模型、優化資料中心的能源效率,以及鼓勵使用者做出更環保的選擇。只有這樣,我們才能確保 AI 的發展能夠與環境保護並行不悖。
這也引發了我們對於如何在 AI 發展的同時,兼顧環境保護的思考。我們是否應該鼓勵開發更節能的 AI 模型?使用者在使用 AI 時,又該如何做出更環保的選擇?這些問題值得我們持續關注與討論。
原始連結:https://techcrunch.com/2025/02/11/chatgpt-may-not-be-as-power-hungry-as-once-assumed/