以下の内容はhttps://tamakino.hatenablog.com/entry/2025/08/21/080000より取得しました。


NVIDIAのフアンCEOがチップ封鎖に反対する理由。ファーウェイのGPUがNVIDIAを凌駕し始めている

NVIDIAのジェンスン・フアンCEOは、中国に対するチップ封鎖政策に一貫して反対している。中国の開発マインドに火をつけてしまい、米国の国益を損なう可能性があるからだ。そして、ファーウェイはNVIDIAを凌駕するGPUのシステムを発表したと観察者網が報じた。

 

H20の禁輸に抵抗するNVIDIAのCEO

米国の中国に対するチップ封鎖は止まることを知らない。今年2025年4月、米国政府はNVIDIAに対し、H20を中国に輸出することを禁止した。すると、創業者の黄仁勲(ジェンスン・フアン)CEOは、すぐに中国に飛び、政府関係者と面談し、中国市場の重要性について会談をした。

さらに、5月に台北市で開催された台北コンピューター展に出席したフアンCEOは、このように述べた。「中国のパフォーマンスには目を見張るものがあります。世界のAI研究者の半分は中国人で、誰も中国を止めることはできませんし、AIの発展を止めることはできません。もし、この勢いを止められると思っている人がいるなら、その人は何もわかっていません」。

台北コンピューター展で登壇したフアンCEOは、素直にファーウェイの技術開発を評価し、ファーウェイに挑戦していくと発言した。

 

米国の制裁が中国の進化を促している

このH20の禁止令により、NVIDIAは55億ドルの損失を被ったとされている。しかし、NVIDIAの2025年度の売上は1305億ドルであり、前年から114%増と倍以上になり、純利益は729億ドルと前年から145%増。

粗利率が75%にもなるビジネスをしているNVIDIAにとって、55億ドルの損失はじゅうぶんにカバーができる額だ。フアンCEOが恐れているのは、米国が中国に対して技術を規制することで、中国の技術開発を促してしまう形になっていることだ。ファーウェイが開発していたスマートフォンの頭脳「SoC」(システムオンチップ)では、KirinがアップルのAシリーズと激しい開発競争をしていた。そこへ米国は、Kirinを製造する台湾TSMCに対して、米国の製造装置や製造関連の知的財産を使うことを禁止する通告をし、TSMCはKirinの製造を停止するしかなくなった。

これにより、ファーウェイのスマートフォンは一時新製品が発売できない状態となった。しかし、わずか3年足らずで、ファーウェイは国内の中芯国際(SMIC)と手を組み、国産技術でSoCを開発することに成功。アップルからは2世代ほど遅れているものの、急速にキャッチアップをしようとしている。

フアンCEOは、同じことがGPUの領域で起こることを恐れているのだ。それが起こると、NVIDIAのビジネスは深刻な影響を受けることになるからだ。

 

NVIDIAが選ばれる理由は優れた開発環境

NVIDIAGPUが世界中で使われている理由はGPUの性能が優れているだけではない。大きいのが開発環境のCUDAだ。GPUで並列計算をさせるといっても、普通のエンジニアが並列計算のプログラムを書くのは簡単ではない。ところが、CUDAでは豊富なライブラリが用意されていて、計算をライブラリに渡すだけで、最も効率的な並列計算をやってくれる。

エンジニアはコードの核心部分の開発に集中することができる。これがNVIDIAの強い優位性になっていた。さらに、高速コネクテッド技術「NVLink」も大きな魅力となっている。これはGPU同士が高速通信をする仕組みで、CPUを介さずにデータをやりとりするため、GPUクラスター化して使う時に演算速度が向上するように設計されている。

このNVIDIAの優位性が、チップ封鎖をすることにより脅かされるかもしれない。NVIDIAは今にも増して、中国=ファーウェイとの激しい競争にさらされることになる。

 

ファーウェイが発表したスーパーポッド

ファーウェイでは、2022年から新しいGPUの形=スーパーポッドの研究開発を進め、今年2025年4月、スーパーポッド「CLoudMatrix 384」を発表した。これは、1枚のGPUの性能ではNVIDIAの製品に追いつけていないが、クラスター化をし、その通信や並列計算の効率化を図ることで、全体としてはNVIDIAの製品を凌駕するというものだ。

ファーウェイの研究チームは「システムで単点を補う」「数学で物理を補う」「非ムーアの法則ムーアの法則を補う」の3つのスローガンを掲げて開発をしたという。

厳密に言えば、この発想はファーウェイ独自のものではなく、すでにグーグルやNVIDIAは早くから研究開発を行っている。昨2024年3月には、NVIDIAはスーパーノード「GB200 NVL72」を発表している。72枚のBlackwell GPUクラスター化することで、単体で使うよりも、AIモデルの推論速度を30倍に向上させるというものだ。

しかし、ファーウェイのスーパーポッドは、このNVIDIAのものを凌駕した。演算能力はNVIDIAの1.7倍となり、さらに重要なのはクラスターを拡張できる設計になっており、必要ならばさらに大規模なAI演算に適用できるという点だ。

▲CloudMatrix 384スーパーポッドの発表で、NVIDIAのフアンCEOにとっては、恐れていたことが現実になった。単体ではNVIDIAに及ばないものの、システム全体でNVIDIAの1.7倍の演算速度を出すというものだ。

 

GPUの進化の焦点はスーパーポッドに

GPUは明らかにスーパーポッドの時代に入ろうとしている。この8年で、GPU単体の性能は40倍に向上した。だとしたら、スーパーポッドなど開発せずに、GPUを何枚も積み重ねたクラスターでいいのではないか。

それはもはや限界に達している。なぜなら、この8年で内部バスは9倍、ノード帯域幅は4倍にしか増加しなかった。いくらGPUを積み重ねても、内部の通信速度がボトルネックになって、演算速度が出ないのだ。

そこで、GPUクラスターをシステムで制御するスーパーポッドが必要になる。この競争にNVIDIAはファーウェイに一歩遅れをとることになった。それは、米国政府がチップ封鎖を行うことで、ファーウェイの開発マインドに火をつけ、中国政府が国策として強力にバックアップをしていることが大きい。

フアンCEOは率直にこう語っている。「技術仕様を見ると、ファーウェイのCloudMatrix 384スーパーポッドは、性能でNVIDIAを凌駕し、NVIDIAの技術よりも進んでいます。私たちは、この実力のある企業を高く評価し、全力で挑戦しなければなりません。ファーウェイは5GとAIを融合させるという構想を公表しました。これは非常に正しい戦略です。NVIDIAも同じ方向の戦略を進めていますが、ペースを速める必要があります」。

米国のチップ封鎖政策は、米国の国益を損なうだけの結果になっている。

▲CloudMatrixは、GPUクラスター化し、その効率を最適化することで、全体で高速演算を実現するというもの。GPU開発はスーパーポッドに焦点が移っている。

 

バックナンバーポッドキャスト放送中!

open.spotify.com

 

 




以上の内容はhttps://tamakino.hatenablog.com/entry/2025/08/21/080000より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14