AI資料中心為何需要液冷或浸沒式冷卻? | 數位時代

AI 資料中心與冷卻需求

隨著生成式 AI 的興起,AI 技術快速發展,對算力的需求也大幅增加。AI 的算力基礎來自於 GPU 等晶片構成的 AI 伺服器。由於 AI GPU 的效能快速提升,功耗也隨之攀升,傳統的氣冷散熱已無法滿足需求。傳統資料中心的伺服器機架功率約為 10–15 kW,而 AI 專用資料中心的伺服器機架功率則高達 40–250 kW。因此,AI 資料中心需要更有效的冷卻系統,轉向液冷或浸沒式冷卻成為必然的選擇。

液冷和浸沒式冷卻的優勢

液冷和浸沒式冷卻能夠更有效地將 AI 伺服器產生的大量熱能帶走,維持硬體的穩定運作。這些技術不僅能提升散熱效率,還能提高機架密度,進一步提升資料中心的整體效能。隨著 AI 基礎設施的投資規模不斷擴大,液冷和浸沒式冷卻技術將成為 AI 資料中心不可或缺的一部分。

AI 資料中心發展趨勢

全球 AI 資料中心的投資規模預計將呈現跳躍式成長。為了擴展市場,大型科技公司如輝達等紛紛投入巨額資金建設 AI 資料中心。然而,隨著 AI 基礎設施的快速擴張,也可能面臨算力過剩的風險。此外,AI 資料中心對電力需求極大,電力供應和輸送網路的升級也成為重要的挑戰。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容