液冷散熱技術(直接芯片冷卻、浸沒式冷卻)在AI伺服器領域的應用前景與挑戰為何? | 數位時代

液冷散熱技術在AI伺服器領域的應用前景

隨著生成式AI的蓬勃發展,AI伺服器需求爆發式增長,對伺服器零組件供應鏈產生深遠影響。傳統氣冷散熱已難以滿足高功耗需求,液冷散熱技術,包括直接芯片冷卻(Direct-to-Chip)和浸沒式冷卻(Immersion Cooling)等,正逐漸受到重視。這些技術能更有效地將熱量從高功耗處理器和加速卡中移除,確保伺服器穩定運行。研調機構TrendForce預估,2024年AI伺服器產值將達到1,870億美元,年成長率高達69%,散熱模組供應商需要不斷創新,開發更高效、更可靠的液冷解決方案,以滿足AI伺服器對散熱性能的嚴苛要求。

液冷散熱技術在AI伺服器領域面臨的挑戰

AI伺服器的高運算需求對電源供應系統提出更高要求,傳統電源供應器可能無法提供足夠電力,需要更大功率、更高效率的電源解決方案。AI伺服器通常需要多個GPU或加速卡協同工作,增加對電源分配和管理的複雜性。電源供應商需要開發更智能化的電源管理系統,以實現更精確的電力分配和更高效的能源利用。同時,隨著能源效率日益受到重視,高效率的電源供應器也成為AI伺服器的重要組成部分,有助於降低運營成本和減少碳排放。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容