はじめに
OpenAI が AIアクセラレータである Titan を開発中であるというのは、色々なところから出ているようです。
今回は、OpenAI の AIアクセラレータである Titan に関するものをまとめてみました。
Softbank Group + OpenAI + Broadcom
下記のように、Titan は、Arm CPU + AIアクセラレータが1つのSoCを構成するもので、Network と Rack System は Broadcom が開発することになっているようです。
各コンポーネントの担当まとめ(2026年1月時点の最新情報)
| コンポーネント | 担当企業 | 詳細・役割 | 出典・備考 |
|---|---|---|---|
| CPU | SoftBank Group (Arm) + OpenAI | ArmアーキテクチャのカスタムサーバーCPUをArmと共同設計。BroadcomチップのSoCに統合(ホスト/制御用)。NVIDIA/AMDシステムにも流用可能。 | The Information報道 + Arm/OpenAI提携 |
| AIアクセラレータ | OpenAI + Broadcom | OpenAIが設計(systolic array + HBMなど、inference特化)。Broadcomが製造・供給。 | 公式発表(OpenAI/Broadcom) |
| Network | Broadcom | Ethernet/PCIe/光学接続のフルポートフォリオを提供。scale-up/scale-outをオープンスタンダードで実現(vendor lock-in回避)。 | 公式発表 + Charlie Kawwasコメント |
| Rack System | Broadcom(主導) | Broadcomがracks of AI accelerator and network systemsを開発・展開・デプロイ。OpenAIがシステム設計をリードするが、Broadcomが製造・統合・ロールアウトを担当。最初のラックは2026年後半開始、2029年末までに10GW完了。 | OpenAI/Broadcom公式プレスリリース複数("Broadcom to deploy racks...") + 報道(Maginative, Tom's Hardwareなど) |
なぜBroadcomがRack Systemを作るのか?
- 公式文言:"Broadcom to deploy racks of AI accelerator and network systems"(BroadcomがAIアクセラレータとネットワークシステムのラックを展開)。
- OpenAIはaccelerators and systemsの設計を担当(チップ+全体アーキテクチャ)。
- Broadcomはmanufacturing, networking, and system integration + rack designをカバー(チップ製造、ネットワーキング、システム統合、ラック設計)。
- これはBroadcomの強み(カスタムシリコン + ネットワーキング + reference platform提供)を活かした垂直統合。BroadcomはGoogle TPUのような過去実績もあり、reference AI rack platforms(統合参考設計)を提供して顧客(ここではOpenAI)がスケールできるようにする。
- 実際の物理組み立て(アセンブリ)はBroadcomのサプライチェーン(TSMC製造後)で、Foxconnのようなパートナー(OpenAIとFoxconnの別提携でU.S.製造強化)が関与する可能性あり(FoxconnはOpenAIの次世代ラック製造を支援)。
追加の文脈
- OpenAIの役割:設計主導(モデル知見をハードに反映)。Broadcomに"term sheet"でラック展開を委託。
- パートナーデータセンター:Oracle/SoftBank/CoreWeaveなどの施設に展開されるので、最終組み立て・設置はデータセンターオペレーター(Oracleなど)が一部担うが、Broadcomがreference rackを提供。
- 類似例:NVIDIAは自社でDGX/HGX rackを統合提供するが、BroadcomはオープンEthernetベースでカスタム/柔軟性を重視。
- 2026年現在、まだ生産前(遅延リスクあり)だが、発表通りBroadcomがラック全体のデプロイ責任者。
10GW クラスとなると、NVIDIA の Grace+Blackwell Ultra換算で何セット?
OpenAIとBroadcomのカスタムAIアクセラレータの10GW規模(ギガワット、電力消費ベース)を、NVIDIAのGrace + Blackwell(主にGB200 NVL72ラック)に換算すると、約70,000〜83,000セット(GB200 NVL72ラック相当)になります。以下で計算根拠と詳細を説明します。
計算の前提(2026年1月時点の公開情報)
- OpenAI/Broadcomの10GW:これは総電力消費(power envelope)を指し、inference特化のカスタムラック全体で10GW(10,000 MW)。Broadcomがラックデプロイを主導し、2026年後半開始〜2029年末完了。
- NVIDIA GB200 NVL72ラック(Grace CPU 36個 + Blackwell GPU 72個)の電力消費:
- 換算式:10GW ÷ 1ラックあたりの電力 = 必要なラック数(セット数)。
換算結果
- 120 kW/rack基準:10,000,000 kW ÷ 120 kW = 約83,333セット(ラック)。
- 140 kW/rack上限:10,000,000 kW ÷ 140 kW = 約71,429セット。
- 現実的なレンジ:約70,000〜83,000セット(120〜140 kWの変動考慮)。
| NVIDIA GB200 NVL72 1ラック相当 | 電力消費 (kW) | 10GWに必要なセット数 | 備考 |
|---|---|---|---|
| 標準 (NVIDIA/DGX推定) | 120 | 約83,333 | 最も一般的な値(liquid-cooled) |
| HPE版 / 高め推定 | 132 | 約75,758 | HPE QuickSpecs |
| 上限(一部報道) | 140 | 約71,429 | 最大電力ケース |
追加の文脈(比較のポイント)
- GB200 NVL72の構成:1ラックに72 Blackwell GPU + 36 Grace CPU。これを「1セット」とみなすと、10GWは数百万GPU規模(72 × 70,000〜83,000 = 約500万〜600万GPU相当)。
- OpenAI/Broadcom版はinference特化(低遅延・電力効率重視)で、NVIDIAのGB200(training + inference汎用、高性能だが電力高め)よりperf/Wattが高い可能性あり。なので、同じ10GWでも実効性能はOpenAI版の方が優位になるかも(カスタム設計の強み)。
- 電力現実:10GWは原子力発電所1基分級(例:1基あたり1〜1.5GW)。Stargateプロジェクト全体($500B規模)で米国インフラの電力需要が爆増中。
- NVIDIA側の類似規模:NVIDIAの10GW提携(OpenAIと別枠、Vera Rubinプラットフォーム)も同等規模だが、GB200 NVL72はBlackwell世代の代表。
おわりに
上記のように、10GW の AIアクセラレータは、
- NVIDIA GB200 NVL72 × 70,000〜83,000 となり、 約500万〜600万のGB200
になります。
NVIDIA ですら、そこまで作るのに、大変だったのに、現時点では、Broadcom がそこまでできるのでしょうか?
70,000 - 83,000 台の GB200 NVL72のお値段って、お幾らなんでしょうか?
仮に、$3M とすると、$210,000M - $249,000M => $210B - $249B となります。これ、NVIDIAの2025会計年度第3四半期(8~10月期)の $57B の売上のざっくり、4倍です。
1社だけで、それだけの売上って、ありえません。仮に4年としても、$50B です。Broadcom の Semiconductor の2025年度 第4四半期の売上が、$11.1B です。$50Bは、約5倍なので、1年以上の売上になります。
本当に、そうなるんでしょうか?
Titan のリリースを見守りましょう!