Google TPU:從「內部神器」變成撼動 NVDA 的 AI 武器? Google TPU 是 Google 自家為 AI 打造的專用加速晶片,從早期只在內部服務使用,到今天變成雲端產品與獨立 AI 晶片業務,正在改變整個 AI 基礎設施的遊戲規則。 在這個過程中,TPU 一邊幫 Google 降低自家 AI 成本,一邊直接走向外部銷售與雲端供貨,對目前在 AI 晶片幾乎壟斷的 Nvidia 形成實質的長期威脅,同時也可能讓未來 AI 產品「更便宜、更省電、更 everywhere」。 什麼是 TPU?為何 Google 要自己做晶片? TPU(Tensor Processing Unit)不是一般通用 GPU,而是針對矩陣乘法、向量運算這種深度學習核心工作負載設計的 ASIC 晶片,特別對現在的 Transformer、Llama、Gemini 類模型極度友善。 早年 TPU 主要藏在 Google 的資料中心裡,默默幫 Search、YouTube、廣告推薦系統加速,外界只看到「Google AI 很強」,卻看不到背後的硬體差異;到了這幾年,Google 開始開放 Cloud TPU 給企業客戶使用,並在 2025 年之後,把最新一代 TPU 產品線(如 Trillium、Ironwood / TPU v7)推向更大規模的雲端市場,甚至計畫讓客戶在自己的 data center 直接部署。 從 v1 到 Ironwood:專門為 LLM 時代而生 如果把 TPU 的演進拉長來看,它其實是一條很「Google 風格」的路線: 2016:TPU v1,只做推理,用在內部產品。 2017–2020:TPU v2 / v3 / v4,引入訓練、Pod 架構與液冷,大幅增加規模與能效。 之後:v5e/v5p、Trillium,開始強調「perf/W」和大規模分散式訓練。 2025 年的主角,是代號 Ironwood 的第七代 TPU,也就是 TPU v7。Ironwood 針對「推理時代」(age of inference)設計,重點不再只是訓練,而是讓超大型 LLM 和推理模型在超大規模下「既快又省電」...