Google TPU(張量處理器)的發展始於2015年,當時Google在內部核心業務(如搜尋、廣告等)中廣泛應用深度學習。工程團隊發現,若全面採用深度學習模型,全球資料中心的功耗將會大幅增加,即使大量採購GPU也無法滿足需求,並且成本會暴增。因此,Google決定自行研發ASIC加速器,目標是打造可大量部署於資料中心、專用於矩陣運算的高效能晶片,而非單純追求通用性能。Google制定規格,並交由博通負責開發ASIC。
2016年,Google第一版TPU v1正式上線,支援Google翻譯及部分搜尋功能,證明了ASIC方案的可行性。此後,Google持續開發TPU作為資料中心的加速器,幾乎每年都推出新一代產品。到了2025年,Google推出了第7代TPU(TPU v7,代號Ironwood),在架構、規模、可靠性、網路與軟體系統上進行了全面重構,迅速成為全球AI基礎設施領域最受矚目的產品。
TPU最初的目標是解決深度學習模型在Google資料中心中部署時所面臨的功耗和成本問題。Google希望透過自研的ASIC晶片,實現更高效能、更低功耗的矩陣運算,從而降低資料中心的整體功耗和營運成本。此外,Google也希望藉此擺脫對GPU的過度依賴,建立自主可控的AI加速硬體生態系統。
隨著TPU的發展,其功能日益強大,已對GPU造成壓力。GPU最初是為電腦圖形顯示設計的,但由於具備數千個可執行平行運算的核心,因此也適用於深度學習與科學計算。然而,隨著大語言模型的發展,對算力的要求日益提高,GPU的功耗也大幅增加,導致AI資料中心的用電需求直線上升。
TPU的出現為市場提供了一個新的選擇。儘管目前人工智慧算力的基礎設施大部分架構在NVIDIA的GPU之上,但Google的TPU經過多年發展,商業模式已從「服務內部需求」轉為「開放與相容外部生態」,甚至開始直接對外販售TPU。例如,2025年10月底,美國人工智慧開發公司Anthropic與Google簽訂合約,將使用高達100萬顆Google TPU。此外,Meta也有意在其資料中心部署Google TPU。這些舉動都顯示TPU正在逐漸崛起,並對NVIDIA在AI晶片市場的壟斷地位構成挑戰。Google的目標是讓其AI TPU的銷售額,達到輝達AI晶片營收的10-15%左右。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容