はじめに
Xの下記の投稿が盛り上がっているようなので、記録に残します。
Google は、XLAを2017年(TPU v2の発表の年)から開発を行っているので、既に8年が経っています。
— Vengineerの妄想 (@Vengineer) 2025年11月16日
つまり、v2 からずーと、XLAを使っているのです。
NVIDIAのCUDAほど長くはないのですが、
8年間、開発を継続しているのです。
つまり、ASICが重要なのではなく、… https://t.co/ooDXomKF3Z
XLAは、8年前から開発している。
XLAは、TensorFlow XLA として、2017年から開発をしています。
このブログでも2017年2月20日に下記のように取り上げています。
XLA を利用しているものは、
TPU の歴史
- v2 : 2017
- v3 : 2018
- v4i 2020
- v4 : 2021
- v5e : 2023
- v5p : 2023
- v6e (Trillium) : 2024
- v7 (Ironwood) : 2025
Google の Document には、v4i と v7 を除いて、すべて、公開されています。
また、v2 も利用できます。

おわりに
AWS も Inferentia/Trainium を下記のように開発しています。Inferentia が 2018 なので、Google TPU の 1年後ですが、Chip開発は4つ(Inferentia 2がTrainiumと同じ9です。Google TPUの半分です。
- Inferentia : 2018
- Trainium : 2019
- Inferentia 2 : 2021 (Trainiumと同じチップ)
- Trainium 2 : 2023
- Trainium 3 : 2024
ということで、ここにきて、Google TPU が注目をされてきたのは、ASICというより、ASICを含めたエコシステムがイイ感じになってきたということだと思っています。。。