為什麼說「Scale-Across」代表了未來AI基礎設施的發展方向? | 數位時代

Scale-Across 如何定義未來 AI 基礎設施

NVIDIA 的「Scale-Across」概念旨在透過先進的網路技術,將分散的資料中心整合為一個邏輯上的 AI 超級電腦。相較於傳統的「Scale-Up」(升級單一伺服器)和「Scale-Out」(增加伺服器數量),「Scale-Across」將多個資料中心視為整體協同運作,以應對不斷增長的算力需求。NVIDIA 推出包括 NVLink Fusion 平台在內的一系列關鍵技術,能在多個資料中心之間建立高速互聯,實現資料快速傳輸和共享。

矽光子交換器在 Scale-Across 中的作用

Spectrum XGS 矽光子交換器是實現「Scale-Across」的重要組成部分。它利用光子技術提供更高的頻寬和更低的延遲,顯著提升資料中心之間的協同運作效率。透過整合這些技術,企業能夠跨越多個資料中心建立統一的運算資源池,實現更高效的資源分配和利用。

Scale-Across 的未來發展潛力

隨著推理 AI 的興起,單一硬體已難以滿足快速膨脹的算力需求。透過「Scale-Across」,企業可以更靈活地調用和分配運算資源,更好地應對各種 AI 應用場景。NVIDIA 也將持續投入 GPU、CPU、網路和系統的研發,為 Gigawatt 級 AI 資料中心奠定基礎,推動「Scale-Across」概念的實現。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容