はじめに
昨年(2024年) に Google TPU Trillium (v6e) が発表されました。
TPU v6e | Google Cloud Documentation
今年(2025年)は、v6p が発表され、来年(2026年)に v7 が発表されるのでは?と思っています。
今回は、Google TPU v7 を妄想します。
それでは、
Let's 妄想
追記)、2026.02.28
Ironwood が v7 になりました。なので、ここでの v7 は、v8 の Broadcom 版で、TPUv8ax (コードネーム: Sunfish) ということになります。
Google TPU v7
LinkedIn によると、
System lead for launching Google Machine Learning TPUs (currently TPU-V7)
Bringing the next-gen TPU v7 (AI acceleration chip) to Google Cloud
My work on chip and datacenter modeling has helped shape the design of Google's TPU v7 and v8 pods.
という情報があるので、TPU v7 は開発しているのだと思います。また、v8 の話も出ています。
では、どこと一緒に開発しているのでしょうか?
Google 君に聞いてみると、どうやら、
- Compute Die : Broadcom
- I/O Die : Mediatek
っぽいです。
谷歌(Google)
— Vengineerの妄想 (@Vengineer) 2025年3月16日
TPU : 博通(Broadcom) + 联发科(Mediatek)
TPU v7 の I/O (224Gbps SERDES) は、Mediatekっぽい
Amazon(亚马逊)
XPU : 学習 (Marvell), 推論(Alchip/世芯)https://t.co/WGLOwJrbgu pic.twitter.com/C0kTBKekyo
Broadcom も資料
下記のブログでも紹介した「3.5D F2F Technology for AI XPUs 」

4は、下記のブログでも紹介しましたが、「Fujitsu MONAKA」です。
1, #2, #3, は、I/O chiplet とあるが、#2 は 100G, #3 は 200G とあるが、#1 は無し。
1 が Google TPU v7 とすると、I/O chiplet は Mediatek が開発するので詳細はここには書けない。。
ということで、#1 を Google TPU v7 とします。
- 3D の Compute Die が 2個
- I/O DIe が 2個
- Compute Die には、6個の HBM3 が接続する
- Package Size は、100 mm x 100 mm
Package Size が 100 mm x 100 mm なので、TSMC の 5.5 recl. になり、2026年。
ということで、最初の 2026年に TPU v7 を発表はあっていそうです。
おわりに
TPU v7 の Compute Die は、3D ということになり、下の Die の HBM I/F と SRAM たっぷりということになりそうです。
v5e/v5p/v6e の block diagram はないのですが、v4 は下記の記事にありました。
下図は、上記の記事の中の v4 の block diagram です。説明のために引用します。

PCIe と ICI を別の I/O die にして、HBM Controller + PHY (6個) + CMem + D2D を下の die にして、上の die に TPU Core を置けそうです。CMem の容量を増やせば、その分性能が上がりそうです。
それでは、ここまでで
次回も Let's 妄想
関連
早安!3/19 外電綜合整理
— 駿HaYaO (@QQ_Timmy) 2025年3月19日
- GTC:
美系大行認為三個重點,GB300, CPO, GB10:
GB300: Cordelia module, 結合兩Bianca boards在一起,每個Cordelia 有4個B300 GPU+ 2個Grace CPU,這樣做比較省空間。另外也要發表NVL144, 預期3Q底GB300開始放量。
CPO: 上詮跟日月光將會取代既有的供應鏈。
Rubin…