TPU

Tensor Processing Unit

發展歷程

年份 版本 主要特色
2025 TPU v7 (Ironwood) 專為推論設計,強調即時生成與能效比;支援大規模任務並提升擴展性
2024 TPU v6 (Trillium) 計算力為前代 4.7 倍;記憶體頻寬加倍;最佳化大型模型訓練與雲端部署
2021–2023 TPU v5 系列 加強矩陣運算 (MXU) 與頻寬,專攻生成式 AI;Pod 部署大規模化
2019 TPU v4 採 7 奈米製程、3D torus 互連;單 Pod 達 1.1 exaflops;雲端可用
2018 TPU v3 引入液冷散熱;Pod 規模擴大至 1,024 顆;提升大型模型訓練效能
2017 TPU v2 支援訓練與推論;導入 HBM;首次引入 TPU Pod 設計
2016 TPU v1 公開 Google I/O 首次對外公開 TPU,引起 AI 硬體關注
2015 TPU v1 內部部署 初步部署於語音辨識、搜尋等推論任務,於 Google 內部廣泛應用
2013 TPU 研發啟動 預判 AI 將造成運算壓力;自研 ASIC 作為 CPU/GPU 替代方案

定義與用途

  • TPU (Tensor Processing Unit):

技術特性

實際應用

優勢

限制與挑戰