Google 從 2015 年開始研發 TPU(張量處理器),旨在解決深度學習模型大規模部署時可能導致的功耗和成本問題。由於大量購買 GPU 無法滿足需求,且成本會急劇上升,Google 決定研發 TPU,以實現更高效能、更低功耗的矩陣運算,降低資料中心的整體功耗和營運成本,並減少對 GPU 的過度依賴,建立自主可控的 AI 加速硬體生態系統。
TPU 的出現為市場提供了一個新的選擇,有助於緩解 AI 資料中心的電力壓力。隨著大型語言模型的發展,運算需求日益增加,GPU 的功耗也大幅提升,TPU 在功耗和成本效益上的優勢使其成為 NVIDIA 的有力競爭者。
Google 從 2016 年正式推出第一代 TPU v1,並持續開發 TPU 作為資料中心的加速器,幾乎每年都推出新一代產品。到了 2025 年,Google 推出了第七代 TPU(TPU v7),在架構、規模、可靠性、網路和軟體系統上進行了全面重構,成為全球 AI 基礎設施領域備受關注的產品。TPU 的不斷發展不僅對 GPU 造成壓力,也逐漸對 NVIDIA 在 AI 晶片市場的壟斷地位構成挑戰。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容