Google 最初擔心,若大規模部署深度學習模型,會導致嚴重的功耗和成本問題。即使大量購買 GPU,也無法滿足需求,而且成本會急劇上升。因此,Google 開始研發 TPU(張量處理器),旨在解決這些問題。
TPU 的主要目標是實現更高效能、更低功耗的矩陣運算,從而降低資料中心的整體功耗和營運成本。此外,Google 希望藉此減少對 GPU 的過度依賴,建立自主可控的 AI 加速硬體生態系統。隨著大型語言模型的發展,運算需求日益增加,GPU 的功耗也大幅提升,TPU 的出現為市場提供了一個新的選擇,有助於緩解 AI 資料中心的電力壓力。
Google 從 2015 年開始研發 TPU,並於 2016 年正式推出第一代 TPU v1,支援 Google 翻譯和部分搜尋功能。之後,Google 持續開發 TPU 作為資料中心的加速器,幾乎每年都推出新一代產品。到了 2025 年,Google 推出了第七代 TPU(TPU v7),在架構、規模、可靠性、網路和軟體系統上進行了全面重構,成為全球 AI 基礎設施領域備受關注的產品。TPU 的發展不僅對 GPU 造成壓力,也逐漸對 NVIDIA 在 AI 晶片市場的壟斷地位構成挑戰。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容