以下の内容はhttps://vengineer.hatenablog.com/entry/2026/03/02/080000より取得しました。


Broadcomが3.5D Face-to-Face Compute SoCをアナウンス

はじめに

Broadcomが3.5D Face-to-Face Compute SoCについて、アナウンスしました。

www.broadcom.com

今回の発表では、Fujitsu MONAKA に関するコメントがありました。

Google TPU v7 => v8ax

去年の今頃、Google TPU v7 について妄想しました。ただし、Ironwood が v7 になりました。なので、ここでの v7 は、v8 の Broadcom 版で、TPUv8ax (コードネーム: Sunfish) ということになります。

vengineer.hatenablog.com

3.5D F2F Technology for AI XPUs

については、2024年12月9日に下記のように取り上げています。

vengineer.hatenablog.com

Meta MTIA v3 について

Meta が MTIA v1/v2 を発表していますが、v3 って、どうなんでしょうか? Meta も Broadcom の顧客だと思っているので、XPU として、3.5D を利用すると考えています。

Grok さんに聞いたら、下記のように、HBM3 を使っているんじゃないかな?と

MetaのMTIA v3(コードネーム: Iris)は、同社の次世代AIアクセラレーターチップで、主にランキングや推薦システムなどのAIワークロードを効率的に処理するためのカスタム設計です。MTIAシリーズはMetaが自社開発するAIチップで、v1 (Freya)やv2 (Artemis)に続く第3世代にあたり、NvidiaやAMDのGPUに対抗する形で進化しています。以下に主な特徴をまとめます。

基本仕様と進化点

  • 製造プロセス: TSMCの3nmプロセスを採用し、v2の5nmから微細化。これにより電力効率と性能が向上しています。追加のI/OインターフェースやSoC(System on Chip)を搭載し、デザインがより複雑化。
  • メモリ: HBM3E(High Bandwidth Memory 3E)を搭載する見込みで、v2のLPDDR5やオン芯片メモリ(SRAM)から大幅に高速化。帯域幅と容量の強化により、AIモデルのトレーニング/インファレンス効率が向上。
  • 性能目標: v2比で密な計算性能が数倍向上し、電力消費を抑えつつ総所有コスト(TCO)を低減。Metaの推薦モデル(DLRMなど)でGPUより44%のコスト削減を実現したv2の延長線上で、さらに柔軟性とスケーラビリティを高めています。
  • アーキテクチャ: RISC-Vベースの処理要素(PE)を格子状に配置したシストリックアレイを基調とし、BroadcomやAndesとの協力で開発。v2の8x8 PEグリッドを基に、さらなる最適化(例: スパース計算のパイプライン化)が施されています。

用途と展開

  • 主な目的: Metaの製品(Facebook, Instagram, Threadsなど)で使われるAIモデル、特に推薦アルゴリズムや生成AI(Llamaベース)のインファレンスに特化。トレーニングも一部サポートしますが、インファレンスが主力。
  • リリース予定: 2026年前半から後半にかけてデビュー予定で、現在スケールアップ中。TSMCの3nmラインで生産され、GUC(TSMC子会社)がパッケージングを担当。
  • 競争環境: NvidiaのRubinチップやAMDのMI450シリーズ、GoogleのTPUなどと競合。MetaはAMDとの提携でMI450を一部採用しつつ、MTIA v3で自社比率を高める戦略です。2026年以降、MetaのAIアクセラレータ市場シェアでAMD 40%、Nvidia 50%、MTIA 10%程度の見込み。

3.5D XDSiP #2

HBM3 を使っているものとしては、#2 があります。

3x Top on 1x Bottom 3D Stack, 1x I/O Chiplet
6x HBM3, 100G, D2D PHY

これについて、Grok さんに聞いてみました

はい、この "3.5D XDSiP #2" (3x Top on 1x Bottom 3D Stack, 1x I/O Chiplet, 6x HBM3, 100G, D2D PHY) は Meta の MTIA v3 (Iris) と密接に関連しています。Broadcom の 3.5D XDSiP プラットフォームは、Face-to-Face (F2F) 技術を活用した先進パッケージングで、Meta などのハイパースケーラー向けカスタム AI アクセラレータ (XPU) をサポートするものです。Broadcom は Meta の MTIA シリーズのデザインと製造に長年関与しており、v1 (Freya) や v2 (Artemis) に続き、v3 でもこのプラットフォームを採用。

詳細な関連性

  • Broadcom の役割: Broadcom は Google の TPU、Meta の MTIA、OpenAI などのカスタムチップを設計・提供しており、MTIA v3 では TSMC の CoWoS (Chip on Wafer on Substrate) 容量の約20% を占める形で関与。3.5D XDSiP は 6000mm² 以上のシリコン統合と高帯域メモリ (HBM) を可能にし、MTIA v3 の 3nm プロセス、HBM3E、RISC-V ベースの PE アレイに適合。
  • 構成の一致: 記述されたスペック (3x Top on 1x Bottom 3D スタック、1x I/O チップレット、6x HBM3) は MTIA v3 のインファレンス特化設計に合致。Broadcom のプラットフォームは電力効率向上 (10x 低消費インターフェース) と低レイテンシを実現し、Meta の推薦システムに最適。
  • リリース状況: 2026 年初頭から出荷開始で、Meta は MTIA ラインアップを多様化しつつ推進中。Broadcom の執行役員によると、2027 年までに 100 万ユニット以上の販売見込み。

公式発表では直接 "MTIA v3 = 3.5D XDSiP #2" と明記されていないものの、業界レポートとパートナーシップから強く示唆されます。Meta のスポークスパーソンも MTIA の進展を認めています。

あっていますかね。

MTIA v1/v2 は、下記のように LPDDR5 + SRAM の構成なので、Base Die に SRAM を置いて、Top Die (Logic Die) に今までの構成の増強版を置けばよさそう。そして、Network として、100G を追加という感じ

vengineer.hatenablog.com

また、N3だけでなく、N2もやっているっぽいので、もしかしたら、2 Die 構成もありそうです。

vengineer.hatenablog.com

おわりに

Broadcomの3.5D に関しては、2024年末から発表されているので、特に新しいことではありませんが、実際にチップが出来上がってきたんですね。。




以上の内容はhttps://vengineer.hatenablog.com/entry/2026/03/02/080000より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14