TPU (Tensor Processing Unit) je proprietární procesor od Googlu navržený specificky pro strojové učení s využitím knihovny TensorFlow. Představuje vrchol hardwarové optimalizace, kde je efektivita upřednostněna před univerzalitou.
Tradiční procesory (CPU) a grafické karty (GPU) nebyly původně navrženy pro AI:
Klíčem k výkonu TPU je tzv. Systolické pole (Systolic Array).
Google svou technologii neustále vyvíjí a nabízí ji skrze Google Cloud Platform:
| Generace | Hlavní zaměření | Výkon / Charakteristika |
| v1 (2016) | Pouze Inference | Určeno pro spouštění již vytrénovaných modelů. |
| v2 / v3 | Trénování i Inference | Zavedení kapalinového chlazení a obřích „podů“. |
| v4 / v5p | Exascale computing | Optimalizováno pro trénování největších LLM (např. Gemini a PaLM). |
TPU nejsou dostupné jako samostatné komponenty k nákupu (na rozdíl od GPU NVIDIA). Jsou integrovány hluboko do služeb Googlu:
I když jsou TPU v určitých úlohách TensorFlow rychlejší a levnější, GPU od NVIDIA zůstávají standardem díky:
Google TPU představuje klíčový prvek moderní AI infrastruktury. Díky specializovanému designu na matice‑multiplikaci, podpoře bfloat16 a sparsity dosahuje nevídaných výkonových poměrů a energetické účinnosti. Kombinace Cloud TPU pro masivní trénink a Edge TPU pro inferenci na okraji sítě umožňuje kompletní end‑to‑end řešení od vývoje až po nasazení AI modelů. S nadcházejícími generacemi (TPU v5) a rozšiřujícím se ekosystémem nástrojů (TensorFlow, JAX, XLA) bude TPU i nadále posouvat hranice toho, co je v AI možné.
[[https://cloud.google.com/tpu|Google Cloud TPU – oficiální dokumentace]] [[https://research.google/pubs/pub48357/|“In‑Depth Performance Analysis of the TPU v4” – Google Research, 2023]] [[https://www.tensorflow.org/xla|TensorFlow XLA Compiler]] [[https://coral.ai|Coral – Edge TPU platforma]] [[https://arxiv.org/abs/2104.04473|“Bfloat16: The Secret to TPU’s Success” – arXiv preprint, 2021]] [[https://developer.nvidia.com/gtc|NVIDIA GTC – srovnání GPU a TPU]]
Související články:
Tagy: it hardware google tpu ai machine-learning asic tensorflow