Maia 200 和 Google TPU 都是雲端供應商自行研發的 AI 晶片,但兩者在設計和應用上有所不同。TPU 同時兼顧模型的訓練與推理,更偏向支援整體的 AI 研發流程。相較之下,Maia 200 更專注於「模型上線之後」的大量推理場景,旨在為 Azure 上的 GPT‑5.2、Copilot 等服務,在效能與雲端成本之間取得平衡。
Maia 200 的產品定位更像是「雲端版的專用 AI 引擎」,而非通用型 GPU。GPU 最初為繪圖設計,後來被廣泛應用於訓練、推理和科學運算等各種工作負載,因此更注重彈性和通用性。Maia 200 從一開始就鎖定在資料中心的大模型推理,將 FP4/FP8 低精度算力堆疊到極致,目標是以最低成本處理最多的 token。為了實現這個目標,Maia 200 採用了 3 奈米製程,並以四顆晶片為一組配置於單一伺服器中,最多可以將 6,144 顆晶片串接於同一集群內,形成大規模平行運算平台,以支撐日益龐大的 AI 模型與工作負載。
Google TPU 的設計目標是同時兼顧訓練與推理,因此在架構上更具備通用性。TPU 能夠支援多種不同的機器學習模型,並且能夠在訓練和推理之間靈活切換。Google 第七代 TPU「Ironwood」就是一個例子,它與 Maia 200 同為 AI ASIC,但同時兼顧訓練與推理。總體而言,TPU 的設計目標是為 Google 的 AI 研發提供全面的支援,而 Maia 200 則更側重於提升特定應用場景下的推理效能。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容