以下の内容はhttps://vengineer.hatenablog.com/entry/2026/01/22/080000より取得しました。


OpenAIのAIアクセラレータ、Titanについて

はじめに

OpenAI が AIアクセラレータである Titan を開発中であるというのは、色々なところから出ているようです。

今回は、OpenAI の AIアクセラレータである Titan に関するものをまとめてみました。

Softbank Group + OpenAI + Broadcom

下記のように、Titan は、Arm CPU + AIアクセラレータが1つのSoCを構成するもので、Network と Rack System は Broadcom が開発することになっているようです。

コンポーネントの担当まとめ(2026年1月時点の最新情報)

コンポーネント 担当企業 詳細・役割 出典・備考
CPU SoftBank Group (Arm) + OpenAI ArmアーキテクチャのカスタムサーバーCPUをArmと共同設計。BroadcomチップのSoCに統合(ホスト/制御用)。NVIDIA/AMDシステムにも流用可能。 The Information報道 + Arm/OpenAI提携
AIアクセラレータ OpenAI + Broadcom OpenAIが設計(systolic array + HBMなど、inference特化)。Broadcomが製造・供給。 公式発表(OpenAI/Broadcom
Network Broadcom Ethernet/PCIe/光学接続のフルポートフォリオを提供。scale-up/scale-outをオープンスタンダードで実現(vendor lock-in回避)。 公式発表 + Charlie Kawwasコメント
Rack System Broadcom(主導) Broadcomracks of AI accelerator and network systemsを開発・展開・デプロイ。OpenAIがシステム設計をリードするが、Broadcomが製造・統合・ロールアウトを担当。最初のラックは2026年後半開始、2029年末までに10GW完了。 OpenAI/Broadcom公式プレスリリース複数("Broadcom to deploy racks...") + 報道(Maginative, Tom's Hardwareなど)

なぜBroadcomがRack Systemを作るのか?

  • 公式文言:"Broadcom to deploy racks of AI accelerator and network systems"(BroadcomがAIアクセラレータとネットワークシステムのラックを展開)。
  • OpenAIはaccelerators and systemsの設計を担当(チップ+全体アーキテクチャ)。
  • Broadcommanufacturing, networking, and system integration + rack designをカバー(チップ製造、ネットワーキング、システム統合、ラック設計)。
  • これはBroadcomの強み(カスタムシリコン + ネットワーキング + reference platform提供)を活かした垂直統合BroadcomGoogle TPUのような過去実績もあり、reference AI rack platforms(統合参考設計)を提供して顧客(ここではOpenAI)がスケールできるようにする。
  • 実際の物理組み立て(アセンブリ)はBroadcomサプライチェーンTSMC製造後)で、Foxconnのようなパートナー(OpenAIとFoxconnの別提携でU.S.製造強化)が関与する可能性あり(FoxconnはOpenAIの次世代ラック製造を支援)。

追加の文脈

  • OpenAIの役割:設計主導(モデル知見をハードに反映)。Broadcomに"term sheet"でラック展開を委託。
  • パートナーデータセンターOracle/SoftBank/CoreWeaveなどの施設に展開されるので、最終組み立て・設置はデータセンターオペレーター(Oracleなど)が一部担うが、Broadcomreference rackを提供。
  • 類似例NVIDIAは自社でDGX/HGX rackを統合提供するが、BroadcomオープンEthernetベースでカスタム/柔軟性を重視。
  • 2026年現在、まだ生産前(遅延リスクあり)だが、発表通りBroadcomがラック全体のデプロイ責任者。

10GW クラスとなると、NVIDIA の Grace+Blackwell Ultra換算で何セット?

OpenAIとBroadcomのカスタムAIアクセラレータの10GW規模(ギガワット、電力消費ベース)を、NVIDIAのGrace + Blackwell(主にGB200 NVL72ラック)に換算すると、約70,000〜83,000セット(GB200 NVL72ラック相当)になります。以下で計算根拠と詳細を説明します。

計算の前提(2026年1月時点の公開情報)

  • OpenAI/Broadcomの10GW:これは総電力消費(power envelope)を指し、inference特化のカスタムラック全体で10GW(10,000 MW)。Broadcomがラックデプロイを主導し、2026年後半開始〜2029年末完了。
  • NVIDIA GB200 NVL72ラック(Grace CPU 36個 + Blackwell GPU 72個)の電力消費:
    • 標準推定:120 kW(120,000 W) per rack(NVIDIA公式/DGX GB200ユーザーガイド、Sunbird DCIM、Continuum Labsなど多数一致)。
    • 変動範囲:120〜140 kW(HPE版132 kW、Hyperstack/一部報道で130 kW超、liquid-cooledで高めの場合)。ここでは保守的に120 kWを基準にし、上限140 kWでレンジを示します。
  • 換算式:10GW ÷ 1ラックあたりの電力 = 必要なラック数(セット数)。

換算結果

  • 120 kW/rack基準:10,000,000 kW ÷ 120 kW = 約83,333セット(ラック)。
  • 140 kW/rack上限:10,000,000 kW ÷ 140 kW = 約71,429セット
  • 現実的なレンジ約70,000〜83,000セット(120〜140 kWの変動考慮)。
NVIDIA GB200 NVL72 1ラック相当 電力消費 (kW) 10GWに必要なセット数 備考
標準 (NVIDIA/DGX推定) 120 約83,333 最も一般的な値(liquid-cooled)
HPE版 / 高め推定 132 約75,758 HPE QuickSpecs
上限(一部報道) 140 約71,429 最大電力ケース

追加の文脈(比較のポイント)

  • GB200 NVL72の構成:1ラックに72 Blackwell GPU + 36 Grace CPU。これを「1セット」とみなすと、10GWは数百万GPU規模(72 × 70,000〜83,000 = 約500万〜600万GPU相当)。
  • OpenAI/Broadcom版はinference特化(低遅延・電力効率重視)で、NVIDIAのGB200(training + inference汎用、高性能だが電力高め)よりperf/Wattが高い可能性あり。なので、同じ10GWでも実効性能はOpenAI版の方が優位になるかも(カスタム設計の強み)。
  • 電力現実:10GWは原子力発電所1基分級(例:1基あたり1〜1.5GW)。Stargateプロジェクト全体($500B規模)で米国インフラの電力需要が爆増中。
  • NVIDIA側の類似規模NVIDIAの10GW提携(OpenAIと別枠、Vera Rubinプラットフォーム)も同等規模だが、GB200 NVL72はBlackwell世代の代表。

おわりに

上記のように、10GW の AIアクセラレータは、

  • NVIDIA GB200 NVL72 × 70,000〜83,000 となり、 約500万〜600万のGB200

になります。

NVIDIA ですら、そこまで作るのに、大変だったのに、現時点では、Broadcom がそこまでできるのでしょうか?

70,000 - 83,000 台の GB200 NVL72のお値段って、お幾らなんでしょうか?

仮に、$3M とすると、$210,000M - $249,000M => $210B - $249B となります。これ、NVIDIAの2025会計年度第3四半期(8~10月期)の $57B の売上のざっくり、4倍です。

1社だけで、それだけの売上って、ありえません。仮に4年としても、$50B です。Broadcom の Semiconductor の2025年度 第4四半期の売上が、$11.1B です。$50Bは、約5倍なので、1年以上の売上になります。

本当に、そうなるんでしょうか?

Titan のリリースを見守りましょう!




以上の内容はhttps://vengineer.hatenablog.com/entry/2026/01/22/080000より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14