一般伺服器主要依賴中央處理器(CPU)提供算力,而 AI 伺服器除了 CPU 之外,還會搭載圖形處理器(GPU)及特殊應用積體電路(ASIC)、FPGA、TPU 等晶片,以應付 AI 運算所需的大量算力。這些額外的晶片使 AI 伺服器在處理深度學習、機器學習等 AI 任務時,能提供遠高於一般伺服器的效能。
AI 伺服器因其特殊的晶片組成,成本遠高於一般伺服器。《DIGITIMES》指出,傳統 x86 架構的伺服器成本約為 1 萬美元,而一台搭載 8 顆 NVIDIA H100 的 AI 伺服器,成本將近 27 萬美元。由此可見,AI 伺服器的成本是傳統伺服器的數十倍,主要由於 GPU 等 AI 晶片的高昂價格所致。儘管如此,大型雲端服務廠商仍持續擴大採購 AI 伺服器,預計 AI 伺服器在整體伺服器出貨中的佔比將持續提升。
台灣電子代工廠在全球 AI 伺服器市場中扮演關鍵角色,包含鴻海、廣達、緯創、英業達、和碩、仁寶等廠商,都受到國際大廠的認可,成為 Meta、Google 及 NVIDIA、AMD 等公司的客戶。這些廠商在 AI 伺服器的各個製造階段(從 L6 主機板製造到 L12 整機櫃解決方案)都有涉略,其中鴻海更占據全球 AI 伺服器 40% 的市占,是 AI 伺服器龍頭。其他廠商如英業達在 L6 階段的主機板製造中佔有重要地位,而緯穎則專注於 L6 與 L12 階段,提供資料中心整體解決方案。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容