はじめに
2019年12月7日に、Slideshareにアップした下記のスライド、タイトルは、「Cloud Deep Learning Chips : Training & Inference」
まとめとしては、下記のようになっていました。

Training
Inference
現在(2025.03.31) では、どうでしょうか?
NotebookLM の音声概要
Training & Inference
下記のXの投稿
これを見て、Training Chipを開発しているのは、
— Vengineerの妄想 (@Vengineer) 2025年3月27日
- NVIDIA
- AMD
以外では、
- AWS
だけなんだよね。 https://t.co/XizCgZZUYj
Training
Inference
で上記のスライドにあって、ここにもあるものは、Google TPU と Groq のみですね。
スタートアップな
- Cerebras Systems
- SambaNova Systems
は、ChatGPT が出てから、LLM Inference に PIVOT しました。
- Graphcore は、Softbank Group に買収
おわりに
大昔、AIが普及すれば、Inference の方が需要があるよね。ということでしたが、ChatGPTにより、LLM Inference の需要が爆発したので、Training から Inference にシフトしたのでしょうか?
Training に関しては、過去の資産と色々なノウハウ等が必要だと思うので、コロコロ変えるのはお得じゃないと思います。
なので、基本は、NVIDIA。
それ以外で、
になっているのだと思います。。。
下記のXの投稿でも、そうなっていますね。
SemiAnalysis’ Dylan Patel – Top AI accelerator vendors today:
— Dan Nystedt (@dnystedt) 2025年4月1日
1. Nvidia
2. Google TPU
3. AMD MI300 - MI325X
4. Amazon Trainium
5. None$NVDA $GOOGL $AMD $AMZN #semiconductors https://t.co/ozIuzymHSx