
はじめに:AI革命を支える「見えざるエンジン」
ChatGPTのような生成AIが、まるで魔法のように私たちの言葉を理解し、創造的なテキストや画像を生成する能力には、誰もが驚かされます。しかし、この「魔法」の裏側には、それを物理的に可能にする強力な「頭脳」、すなわち半導体が存在します。このAIの心臓部とも言える半導体は、私たちが普段使っているパソコンやスマートフォンのものとは根本的に異なります 。
現代のAI、特にディープラーニング(深層学習)は、人間の脳の働きを模倣したニューラルネットワークという計算モデルに基づいています。このモデルを機能させるには、膨大な量のデータを並列処理し、天文学的な回数の計算を高速に実行する必要があります 。従来の汎用的なコンピュータチップは、その設計思想からして、このようなAI特有の巨大な要求に応えるには限界がありました。この課題こそが、AI専用半導体という新しい種類のプロセッサを生み出す原動力となったのです。
この記事では、AIの進化を支える半導体の物語を紐解きます。物語の登場人物は4人。あらゆる仕事をこなす万能選手「CPU」、並列処理の才能を偶然見出された「GPU」、そしてAI時代のために生まれた2人の専門家、デバイス上で活躍する効率家「NPU」と、データセンターで世界を動かす巨人「TPU」です。彼らの役割と進化の過程を理解することで、AI技術がどこから来て、どこへ向かっているのか、その未来像が明確に見えてくるでしょう。
基盤:なぜAIは「万能な頭脳」以上のものを必要としたのか
AIハードウェアの爆発的な進化を理解するためには、まず、コンピュータの計算方式における根本的な変化、すなわち直列処理から並列処理への移行を理解する必要があります。この変化こそが、AI専用半導体の土台を築きました。
万能選手:CPU (Central Processing Unit) - 孤高のマスターシェフ
CPUは、長年にわたりコンピュータの「頭脳」として君臨してきました。その本質は、複雑な命令を一つひとつ順番に、極めて高速かつ正確に実行することにあります 。この処理方式は「直列処理(シリアル処理)」と呼ばれます 。
このCPUの働きを、マスターシェフに例えることができます。マスターシェフは、どんなに複雑なレシピ(タスク)でも、前菜からデザートまで完璧な手順で一つずつ調理を進めることができます。しかし、彼が一度に調理できるのは一皿だけです。オペレーティングシステム(OS)の管理やウェブブラウザの操作といった、多岐にわたるタスクを順番にこなすには、この方式が最適です。
しかし、AIモデルの学習というタスクは、性質が全く異なります。AIの学習は、何百万、何億という単純計算をひたすら繰り返す作業です。マスターシェフに「玉ねぎを100万個みじん切りにしろ」と頼むようなもので、彼は一つひとつ丁寧に行うでしょうが、途方もない時間がかかってしまいます。CPUの最大の強みである「どんなタスクでもこなせる汎用性」が、AIという特定のタスクの前では、逆に処理速度の足かせ(ボトルネック)となってしまったのです 。AIが必要としていたのは、一人の天才ではなく、単純作業を同時にこなせる百万人の働き手でした。この根本的な要求の違いが、次の主役の登場を促しました。
ゲームチェンジャー:GPU (Graphics Processing Unit) - 兵団を率いる無数の副料理長
GPUは、その名の通り、元々はコンピュータグラフィックス、特に3Dゲームの映像を描画するために設計された半導体です 。画面上の何百万ものピクセル(画素)の色や明るさを同時に計算するため、GPUは何百、何千という比較的小さく単純なコアを搭載し、同じ計算を同時に多数のデータに対して実行する「並列処理(パラレル処理)」に特化していました 。
このGPUの働きは、無数の副料理長からなる兵団に例えられます。一人のマスターシェフに代わり、数千人の副料理長を集め、全員に同じ単純な指示を出します。「全員、玉ねぎを一つみじん切りにせよ」。彼らは一斉に作業を始めるため、わずかな時間で数千個のみじん切り玉ねぎが完成します。これが並列処理の力です。
驚くべきことに、AIの深層学習で中心的な役割を果たす「行列演算」という計算は、GPUがグラフィックス処理で行っていた計算と構造的に酷似していました 。AI研究者たちはこの事実に気づき、本来はゲーム用だったGPUをAIの計算に応用し始めました。その結果は劇的で、特定のAIタスクにおいて、CPUの10倍から100倍もの高速化を実現したのです 。
これは、技術革新における非常に興味深いパターンを示しています。GPUはAIのために発明されたわけではありません。ビデオゲームという全く別の目的のために作られた技術が、AIという新しい問題領域に創造的に転用されたことで、革命が起きたのです。この偶然の発見がなければ、今日のAIブームはなかったかもしれません。GPUは、汎用コンピューティングとAI専用ハードウェアの時代を繋ぐ、決定的に重要な「橋」の役割を果たしたのです。そして、GPUが並列処理の価値を証明したことで、さらに特化したプロセッサ、NPUとTPUへの莫大な研究開発投資が正当化されることになりました。
デバイス上の専門家:NPU (Neural Processing Unit)
GPUがAIの可能性を証明した後、次なる課題は、その力をデータセンターの巨大なサーバーから、私たちの手の中にあるデバイスへと解放することでした。この課題を解決するために登場したのがNPU、すなわち「デバイス上のAIブレイン」です。
NPUとは? あなたのポケットの中のAI頭脳
NPU(Neural Processing Unit)は、ニューラルネットワークの計算を高速化するために特別に設計されたプロセッサ、あるいはより大きなチップ(SoC: System-on-a-Chip)に内蔵された専用回路のことです 。特に、学習済みのAIモデルを使って予測や分類を行う「推論(inference)」処理に最適化されており、極めて高い電力効率を誇ります 。Apple製品に搭載されている「Neural Engine」は、このNPUの代表的な例として広く知られています 。
もしGPUがパワフルだが電力消費の激しい並列処理のジェネラリストだとすれば、NPUは超専門的でエネルギー効率に優れたエキスパートです。NPUは「AIモデルを実行する」という一つのタスクに特化し、それを最小限の電力で最大限の効率をもって実行します。
「オンデバイスAI」革命:NPUがゲームを変える理由
NPUの真価は、「オンデバイスAI」を実現した点にあります。これは、AIタスクをクラウド上のサーバーに送ることなく、スマートフォンやノートPCといったデバイス上で直接実行することを意味します。これにより、4つの革新的な利点がもたらされました。
- プライバシーとセキュリティの向上:ユーザーの写真データや音声コマンドといった機密情報がデバイスから外に出ることがないため、プライバシーが保護され、セキュリティリスクが大幅に低減されます 。
- 高速処理と低遅延:データをインターネット経由で送受信する必要がないため、通信の遅延(レイテンシ)がなく、AI処理が瞬時に完了します。リアルタイム性が求められるタスクで絶大な効果を発揮します 。
- オフラインでの利用可能性:インターネット接続がない環境、例えば飛行機の中などでもAI機能が完全に動作します 。
- 圧倒的な電力効率:AIタスクを実行してもバッテリーをほとんど消費しません。これは、消費電力の大きいGPUがスマートフォンなどのモバイルデバイスでの常時利用に適さない大きな理由であり、NPUがその問題を解決しました 。
これらの利点は、私たちの具体的な体験に直結しています。ビデオ会議で背景を瞬時にぼかす機能、スマートフォンのカメラが人物の顔を認識して最適な写真を撮影する機能、あるいはオフラインで使えるリアルタイム翻訳アプリなど、今や当たり前となった多くの「魔法」はNPUによって実現されているのです 。
NPUはどのようにして効率を達成するのか
NPUの驚異的な効率性の秘密は、その専門性にあります。AIモデルの「学習」段階では、非常に高い精度が求められるため、32ビット浮動小数点数のような複雑な数値形式が使われます。しかし、学習済みのモデルを使う「推論」段階では、そこまでの精度は必要なく、8ビット整数(INT8)のような、より単純な数値形式で十分な場合がほとんどです 。
NPUは、この「推論には低精度で十分」という特性を最大限に活用します。科学者の使う超精密な計算機(学習用のGPU)ではなく、商店主が使う高速な「これで十分」な計算機(推論用のNPU)を使うようなものです。より単純な計算に特化することで、NPUの内部回路はより小さく、より速く、そしてはるかに少ない電力で動作することが可能になります。
さらに、NPUはAI処理をCPUやGPUから肩代わり(オフロード)することで、システム全体のパフォーマンスを向上させます 。CPUはOSの管理、GPUは画面描画といった本来の得意な仕事に集中できるため、デバイス全体の動作がよりスムーズになるのです。NPUの性能は、TOPS(Tera Operations Per Second:1秒間に1兆回の演算性能)という単位で測定されます 。
NPUの普及は、単なる技術的な進歩以上の意味を持ちます。それは、AIの展開モデルにおける根本的な構造変化の始まりです。初期のAIは、強力な計算能力を持つデータセンターに集中配置される「中央集権型」でした。しかし、NPUはAIをデバイスの末端(エッジ)に組み込む「分散型」モデルを可能にしました 。この変化は、データセンターや通信網への負荷を軽減し、クラウド事業者のビジネスモデルを変え、そしてAIを遠隔のサービスから、常にユーザーのそばにいる個人的でプライベートなパートナーへと変貌させます。これは、AIが私たちの生活環境に溶け込む「アンビエントAI」時代の幕開けと言えるでしょう。
データセンターの巨人:TPU (Tensor Processing Unit)
NPUがAIを個人の手元にもたらした一方で、AIモデルそのものを生み出す「学習」の現場では、全く異なるスケールの課題が存在しました。その巨大な課題を解決するために、Googleが自ら設計・開発したのがTPU、すなわち産業スケールの「AI工場」です。
TPUとは? Googleが自ら作り上げたAIスーパーコンピュータ
TPU(Tensor Processing Unit)は、Googleが自社の機械学習フレームワーク「TensorFlow」(現在はPyTorchやJAXなど他のフレームワークもサポート)のワークロードを高速化するために特別に開発した、特定用途向け集積回路(ASIC)です 。TPUは、AIモデルの大規模な「学習」と、大量のリクエストを処理する高スループットな「推論」の両方に対応できるように設計されています 。
TPUの誕生には、切実な背景がありました。Googleは2015年頃、ある試算を行いました。もし、世界中のGoogleユーザーが1日にわずか3分間、音声検索を使った場合、その処理に必要なサーバーの数は、当時の2倍になることが判明したのです 。既存のGPUを使い続けるだけでは、データセンターの増設が追いつかず、コストも電力消費も持続不可能なレベルに達してしまいます。Googleは、既製品を買い集めるのではなく、自分たちのAIワークロードに完全に最適化された、より効率的な独自の半導体をゼロから作るという決断を下しました。それがTPUの始まりです。
秘密兵器:「シストリックアレイ」の謎を解く
TPUの心臓部には、「シストリックアレイ(Systolic Array)」と呼ばれる独創的なアーキテクチャを持つ行列乗算ユニット(MXU)が存在します 。このアーキテクチャは、従来のコンピュータが抱える最大のボトルネックの一つ、すなわち「計算のたびにメモリからデータを読み書きする」という非効率(フォン・ノイマン・ボトルネック)を最小化するために設計されています 。
このシストリックアレイの仕組みを、バケツリレーに例えてみましょう。従来のプロセッサが一人の人間が井戸(メモリ)と畑(計算ユニット)の間を何度も往復して水を運ぶのに対し、シストリックアレイは、大勢の人が一列に並び、バケツ(データ)を次々と手渡ししていくようなものです。データはプロセッサのグリッドを脈動(systole)のようにリズミカルに流れ、各プロセッサはデータが通過する際に小さな計算を行います。データは一度メモリから読み込まれると、計算ユニット内を効率的に流れ続け、何度もメモリにアクセスする必要がありません 。この高度に同期された連続的なデータの流れにより、TPUはAIの膨大な行列演算を驚異的なスループットと電力効率で処理することができるのです 。
その性能は凄まじく、例えばTPU v4チップは1基で275 TFLOPS(1秒間に275兆回の浮動小数点演算)の性能を持ち、これを4096基連結した「Pod」と呼ばれるシステムでは、1.1 ExaFLOPS(1秒間に110京回の演算)を超える計算能力を発揮します 。
誰がTPUを使うのか? 産業スケールのAI
TPUは、Googleのあらゆるサービスの根幹を支えています。Google検索、YouTube、Googleフォト、そして最新のAIモデルであるGeminiに至るまで、その多くがTPUの力によって動いています 。
さらに、TPUは「Cloud TPU」としてクラウドサービス経由で外部にも提供されており、Apple、OpenAI、Anthropicといった他の巨大テック企業も、自社の超大規模AIモデルを学習させるためにGoogleからTPUをレンタルしています 。また、ファッションECサイトでの類似商品検索や、企業の書類検索システムの高速化など、様々な産業分野でも活用されています 。
TPUの存在は、単なる高速なチップ以上の意味を持っています。それは、AI開発が研究室レベルの実験から、産業スケールの巨大なプロセスへと成熟したことの象徴です。Googleが何十億ドルもの資金を投じて独自の半導体を開発したという事実は、AIがもはやニッチなワークロードではなく、ネットワーキングやストレージと並ぶ、企業のミッションクリティカルな中核機能になったことを証明しています。このGoogleの動きは、他の巨大テック企業(GAFAM)に衝撃を与え、カスタムシリコン開発の「軍拡競争」の引き金を引きました 。彼らは、最高レベルで競争するためには、もはや既製品の部品を買うだけでは不十分で、自社のソフトウェアと規模に最適化された独自のハードウェアを設計する必要があることを悟ったのです。TPUは、この強力なトレンドの先駆けとなりました。
直接対決:NPU vs. TPU とAIプロセッサファミリー
ここまで解説してきた各プロセッサの役割と特徴を、より明確に理解するために、ここで一度整理してみましょう。
中核となる違い
NPUとTPUの最も重要な違いは、その主戦場と目的にあります。
- NPUは、エッジデバイス(個人の端末)における、電力効率に優れた推論処理のスペシャリストです。
- TPUは、データセンターにおける、高性能な学習と推論を大規模に実行するための巨人です。
これを比喩で表現するならば、NPUはあなたのスマートフォンの中に住み、常にあなたの要求に瞬時に、そしてプライベートに応えてくれる**超有能な「パーソナルアシスタント」です。一方、TPUは、世界で最も強力なAIモデルを構築し、運用するために企業が利用する巨大で中央集権的な「スーパーコンピューティング施設」**と言えるでしょう。
一覧表:AIプロセッサファミリーが一目でわかる
以下の表は、これまで登場した4種類のプロセッサの主な特徴をまとめたものです。それぞれの役割と位置づけを比較することで、AIハードウェアの全体像を把握するための強力なツールとなります。
|
特徴 |
CPU (Central Processing Unit) |
GPU (Graphics Processing Unit) |
NPU (Neural Processing Unit) |
TPU (Tensor Processing Unit) |
|
主な役割 |
万能な「マスターシェフ」 |
並列処理の「副料理長軍団」 |
効率的な「オンデバイス・アシスタント」 |
産業スケールの「AIスーパー工場」 |
|
処理方式 |
直列(シーケンシャル)処理 |
大規模並列処理 |
大規模並列処理(推論に特化) |
大規模並列処理(シストリックアレイ) |
|
最大の強み |
柔軟性、複雑な単一タスク |
高スループットな並列計算(汎用) |
究極の電力効率、低遅延 |
AIタスクにおける大規模性能 |
|
最大の弱み |
並列タスクが非効率 |
高い消費電力、最適化不足 |
推論に限定、柔軟性に欠ける |
高度に専門的、アクセスが限定的 |
|
主な設置場所 |
あらゆるコンピュータ・デバイス |
PC、ワークステーション、データセンター |
スマートフォン、PC、IoT(エッジ) |
データセンター(クラウド) |
AIシリコンの未来:明日の頭脳を垣間見る
AI半導体の世界は、技術革新と熾烈な競争が渦巻く、極めてダイナミックな領域です。その未来は、いくつかの重要なトレンドによって形作られていくでしょう。
新たな戦場
AI学習用半導体市場では、NVIDIAがAIサーバー向けGPU市場で約9割という圧倒的なシェアを握り、依然として支配的な地位を築いています 。しかし、その牙城を崩そうと、競合他社が猛烈な追い上げを見せており、市場の構図は変わりつつあります。
- AMDの猛追:AMDは、NVIDIAの対抗馬として最も有力視されています。AI業界の巨人であるOpenAIと数十億ドル規模の戦略的パートナーシップを締結し、自社のAIチップ(Instinctシリーズ)を大規模に供給することで、NVIDIAへの依存を減らしたいAI企業にとっての信頼できる選択肢としての地位を確立しようとしています 。
- Intelの再起:半導体の巨人Intelは、「IDM 2.0」戦略を掲げ、多角的なアプローチでAI市場での再起を図っています。自社の製造能力(ファウンドリ)を他社に提供するビジネスを強化すると同時に、NVIDIA製品の代替を目指すAIアクセラレータ「Gaudi」シリーズや、NPUを統合したPC向けCPUで、データセンターからエッジまでをカバーする戦略です 。
- GAFAMとカスタムシリコン:GoogleのTPUやAppleのNeural Engineの成功に続き、Amazon、Microsoft、Metaといった他の巨大テック企業も、自社のサービスに最適化された独自のAIチップ開発を加速させています 。これは、ハードウェアとソフトウェアを垂直統合することで、性能とコスト効率を最大化し、他社との差別化を図る狙いがあります。
この競争の激化が示す重要な事実は、「ワンサイズ・フィッツ・オール(one-size-fits-all)」の時代の終わりです。かつては単一の汎用的なチップアーキテクチャがコンピューティングの世界を支配していましたが、AIのワークロードはあまりにも多様(超大規模モデルの学習 vs. リアルタイムのエッジ推論など)かつ重要であるため、単一の解決策ではもはや技術的にも経済的にも対応できなくなっています。その結果、カスタムASICから特定領域向けアーキテクチャまで、AIエコシステムの様々なニッチな要求に応えるための、多様なチップデザインが爆発的に生まれているのです。
ハイブリッドな未来:クラウドとエッジの完璧な調和
これからのAIコンピューティングの世界は、クラウドとエッジが互いの長所を活かし合う、共生的なハイブリッドモデルへと向かうでしょう。
この未来の姿を、世界的なレストランチェーンに例えることができます。 **中央のテストキッチン(クラウド)**では、世界トップクラスのシェフたちが、最高級の設備を使って複雑で革新的なレシピ(基盤となるAIモデル)を開発・完成させます。この工程には、GPUやTPUの巨大なクラスタが不可欠です。 そして、完成したレシピは、誰でも作れるように簡素化・最適化され、**世界中の各店舗(エッジデバイス)**に送られます。各店舗では、超効率的な自動調理システム(NPU)が、そのレシピに基づいて、顧客のために完璧な料理を瞬時に提供します。
つまり、最も強力で巨大な基盤モデルは、今後もクラウド上で学習され続けます。しかし、そのモデルはその後、特定の用途に合わせて最適化・軽量化され、私たちの手元にあるデバイス上のNPUで効率的に実行されるようになります。これにより、クラウドの無限のパワーと、エッジの即時性・プライバシーが両立されるのです。
結論
汎用的なCPUから始まったコンピュータの頭脳は、GPUとの出会いを経て、今やNPUやTPUといった多様で専門的なAIアクセラレータへと驚異的な進化を遂げました。このハードウェアの進化は、単なる技術的好奇心を満たすものではありません。それは、次世代のAIを解き放つための根源的な力であり、AIをこれまで以上に強力で、パーソナルで、そして私たちの生活の隅々にまで浸透させるための、不可欠な土台なのです。
Q&A:AIハードウェアに関するあなたの疑問に答えます
- Q: GPUとNPUの最大の違いは何ですか?
- A: 最大の違いは「専門性」と「電力効率」です。GPUはパワフルですが電力消費の大きい、並列処理の「万能選手」です。一方、NPUはAIモデルの実行(推論)という特定のタスクに特化した、非常に電力効率の高い「専門家」であり、特にバッテリーで動くデバイス向けに設計されています。
- Q: 強力なGPUがあったのに、なぜGoogleはTPUを開発したのですか?
- A: 「規模」と「効率」の問題です。Googleほどの巨大なスケールになると、全てのAIサービスをGPUで動かすのはコストと消費電力の面で持続不可能でした。そこで、AIが必要とする計算(行列演算)を、より少ない電力で、より高いコストパフォーマンスで実行できるように、アーキテクチャ(シストリックアレイ)レベルから完全に最適化した「AI専用工場」としてTPUを自社開発したのです。
- Q: 「オンデバイスAI」とは何で、なぜ重要なのですか?
- A: オンデバイスAIとは、NPUのおかげで、AIの計算がクラウドに送られることなく、スマートフォンやPC上で直接行われることを意味します。これが重要な理由は主に3つあります。①インターネットの遅延がないため「速い」、②データがデバイスから出ないため「プライベートで安全」、③ネット接続がなくても機能するため「オフラインで使える」点です。
- Q: TPUはGPUのようにゲームに使えますか?
- A: いいえ、使えません。TPUはASIC(特定用途向け集積回路)であり、AIに特有のテンソル計算・行列演算のために作られています。GPUが持つような、ゲームグラフィックスの描画に必要な専用ハードウェア(テクスチャマッピングなど)は搭載していません。
- Q: NPUの性能を示す「TOPS」とは何ですか?
- A: TOPSは「Trillions of Operations Per Second」の略で、NPUが1秒間に何兆回の単純な計算(加算や乗算など)を実行できるかを示す性能指標です。一般的にTOPS値が高いほど、より強力なNPUであることを意味し、Copilot+ PCのような新しいAI PCの要件としても重要視されています。
- Q: AIの「学習」はNPUで行われますか?
- A: 一般的には行われません。NPUは、既に学習済みのモデルを実行する「推論」に最適化されています。AIモデルの「学習」は、はるかに高い計算能力と精度を必要とするため、データセンターにある高性能なGPUやTPUで行うのが一般的です。
- Q: TPUの「シストリックアレイ」とは何で、なぜ特別なのですか?
- A: シストリックアレイは、TPUの核心的なアーキテクチャです。データを処理するための、高度に同期された「組立ライン」のようなものだと考えてください。これにより、従来のチップの大きなボトルネックであった「メモリからのデータ読み込み」を最小限に抑え、膨大な行列計算を連続的な流れ作業のように処理できます。これが、AIのワークロードに対して驚異的な速度と効率を実現する理由です。
- Q: NPUとオンデバイスAIの普及で、クラウドは不要になりますか?
- A: いいえ、不要にはならず、むしろ協調して機能します。未来はハイブリッドモデルです。最も強力な「基盤」AIモデルは、クラウド上のGPUやTPUの巨大クラスタで学習されます。そして、そのモデルが私たちの個人デバイス上のNPUで効率的に動くように最適化され、日常のタスクを高速かつプライベートに処理する、という分業体制になります。
- Q: AI半導体の市場リーダーは誰ですか?
- A: 現在のリーダーは、データセンターでAIモデルの学習に使われるGPU市場で約9割のシェアを握るNVIDIAです。しかし、Google(TPU)、AMD、Intel、そして独自のカスタムチップを開発する巨大テック企業などが激しく競争しており、市場は非常にダイナミックに変化しています。
- Q: AIの「学習(トレーニング)」と「推論(インファレンス)」の違いは何ですか?
- A: 「学習」は、AIモデルに膨大なデータを与えて「教える」プロセスです。非常に計算コストが高く、AIを大学に通わせるようなものです。「推論」は、学習済みのモデルを使って、新しいデータに対して予測や生成を行う「使う」プロセスです。AIがその知識を応用して仕事をするようなものです。NPUは推論に、GPUやTPUは学習に不可欠です。
引用文献
1. AI半導体とは?生成AIの関係や役割、半導体企業や銘柄を紹介 - Jitera, https://jitera.com/ja/insights/54120 2. 次世代AI半導体の革新を担うのは誰か? | PwC Japanグループ, https://www.pwc.com/jp/ja/knowledge/thoughtleadership/next-wave-of-ai-semiconductor.html 3. AI半導体とは?種類やGPUとの違い、メリット・デメリットや日本の主要企業を紹介, https://www.witc.co.jp/blog/1r488jyrqa/ 4. 【2025】AI半導体の大手「エヌビディア」の技術とは?メリット・デメリットを徹底解説! | DX/AI研究所, https://ai-kenkyujo.com/news/nvidia/ 5. CPUとGPUを徹底比較:導入で差がつく基礎知識と選択の仕方, https://www.nttpc.co.jp/gpu/article/knowledge10_gpu-cpu.html 6. 機械学習のためのCPUとGPUの比較 - IBM, https://www.ibm.com/jp-ja/think/topics/cpu-vs-gpu-machine-learning 7. GPUとは?CPUとの違いや種類、AI処理における重要性を解説 ..., https://www.lenovo.com/jp/ja/articletop/pc/gpu/ 8. CPUとGPU:得意分野の違い | AI用語解説 AIコンパス, https://ai-compass.weeybrid.co.jp/develop/cpu-vs-gpu-different-strengths/ 9. 【生成AI】CPU vs GPU:処理速度の違いとその理由 | Nラボ備忘録, https://nlab-notebook.com/entry/%E7%94%9F%E6%88%90aicpu-vs-gpu%E5%87%A6%E7%90%86%E9%80%9F%E5%BA%A6%E3%81%AE%E9%81%95%E3%81%84%E3%81%A8%E3%81%9D%E3%81%AE%E7%90%86%E7%94%B1 10. AI処理を高速化する「NPU」とは - ID インフォメーション・ディベロプメント, https://www.idnet.co.jp/column/page_362.html 11. NPUとは?AI処理に特化したプロセッサ | ジサログ:自作PC初心者 ..., https://zisalog.com/cpu-npu/ 12. NPUとは?初心者向けに分かりやすく解説します | レノボ・ ジャパン - Lenovo, https://www.lenovo.com/jp/ja/articletop/pc/npu/ 13. NPUとは?CPU・GPUとの違いやAI処理での必要性を解説 - mouse LABO - マウスコンピューター, https://www.mouse-jp.co.jp/mouselabo/entry/2025/07/09/100206 14. 「NPU」とは | パソコン工房 NEXMAG, https://www.pc-koubou.jp/magazine/90479 15. zantal.jp, https://zantal.jp/neural-engine-explained/#:~:text=%E3%81%A6%E3%81%84%E3%81%8D%E3%81%BE%E3%81%97%E3%82%87%E3%81%86%E3%80%82-,Neural%20Engine%E3%81%AE%E6%A9%9F%E8%83%BD,%E5%A4%A7%E5%B9%85%E3%81%AB%E5%90%91%E4%B8%8A%E3%81%97%E3%81%BE%E3%81%99%E3%80%82 16. Macのニューラルエンジンを活用して機械学習を模索する|にゃーんねっと - note, https://note.com/nyaaan_net/n/n80faa87e40fd 17. プロセッサコアの新たな主役「NPU」とは 手元の端末に高度なAIがある時代に - 東京エレクトロン, https://www.tel.co.jp/museum/magazine/report/202411_01/ 18. Everything we actually know about the Apple Neural Engine (ANE) - GitHub, https://github.com/hollance/neural-engine 19. IntelのNPUについて初心者向けに分かりやすく解説します | レノボ・ ジャパン - Lenovo, https://www.lenovo.com/jp/ja/articletop/pc/intel-npu/ 20. MacのNeural Engineとは?機能や用途を徹底解説, https://zantal.jp/neural-engine-explained/ 21. Neural processing unit - Wikipedia, https://en.wikipedia.org/wiki/Neural_processing_unit 22. What TOPS MEANS | Qualcomm, https://www.qualcomm.com/content/dam/qcomm-martech/dm-assets/documents/What-TOPS-Means-Snapdragon-X-Series.pdf 23. A guide to AI TOPS and NPU performance metrics - Qualcomm, https://www.qualcomm.com/news/onq/2024/04/a-guide-to-ai-tops-and-npu-performance-metrics 24. AIで成長する半導体、需要の中心はクラウドからエッジへ ..., https://www.semiconjapan.org/jp/news-press/blogs/semiconjapan2024-perspectives-on-the-future-3 25. cloud.google.com, https://cloud.google.com/tpu/docs/system-architecture-tpu-vm?hl=ja#:~:text=Tensor%20Processing%20Unit%EF%BC%88TPU%EF%BC%89%E3%81%AF,%E3%81%99%E3%82%8B%20Google%20Cloud%20%E3%82%B5%E3%83%BC%E3%83%93%E3%82%B9%E3%81%A7%E3%81%99%E3%80%82 26. TPUとは?CPUとの違いを初心者にもわかりやすく徹底解説, https://www.blooktecpc-support.com/useful/tpu_tensor/ 27. TPU のアーキテクチャ - Google Cloud, https://cloud.google.com/tpu/docs/system-architecture-tpu-vm?hl=ja 28. Architecture insights: MXU and TPU components - Telnyx, https://telnyx.com/learn-ai/mxu-tpu 29. AI Hypercomputer TPUs - TPU system architecture | Google Cloud Skills Boost, https://www.cloudskillsboost.google/paths/2806/course_templates/1405/documents/568753 30. TPU architecture | Google Cloud, https://cloud.google.com/tpu/docs/system-architecture-tpu-vm 31. Google's AI Processor's (TPU) Heart Throbbing Inspiration | by Carlos E. Perez - Medium, https://medium.com/intuitionmachine/googles-ai-processor-is-inspired-by-the-heart-d0f01b72defe 32. Understanding Matrix Multiplication on a Weight-Stationary Systolic Architecture - Telesens, https://telesens.co/2018/07/30/systolic-architectures/ 33. AI Hypercomputer TPUs - Best practices for model development | Google Cloud Skills Boost, https://www.cloudskillsboost.google/paths/2806/course_templates/1405/documents/568759 34. TPU v4 - Google Cloud, https://cloud.google.com/tpu/docs/v4 35. Google TPU V4 Explained: Architecture, Specifications & Uses - ElProCus, https://www.elprocus.com/google-tpu-v4/ 36. TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings - arXiv, http://arxiv.org/pdf/2304.01433 37. GoogleのTPUがOpenAIとAppleを虜にした驚きの性能とは?|Zenk - note, https://note.com/honest_murre2984/n/n3e3d1f4f85d5 38. Google TPUでNVIDIA GPU競争が本格化|Kawamura Akihiro - note, https://note.com/kawamura_akihiro/n/n634fd7a94249 39. Google Cloud TPUを使った計量学習の高速化事例の紹介 - ZOZO TECH BLOG, https://techblog.zozo.com/entry/tpu_metric_learning 40. 株式会社NTTデータの導入事例 - Google Cloud, https://cloud.google.com/customers/intl/ja-jp/ntt-data 41. AI半導体とは?市場規模や今後の動向について|coevo|製造業向け ..., https://aconnect.stockmark.co.jp/coevo/ai-semiconductor/ 42. AI半導体メーカー徹底比較:生成AIを支える技術革新と市場動向 | オルテディア, https://orutedia.com/ai-semiconductor-manufacturer/ 43. After Nvidia, AMD signs AI chip-supply deal with OpenAI, ChatGPT maker gets option of 10% stake in chipmaker, https://timesofindia.indiatimes.com/technology/tech-news/after-nvidia-amd-signs-ai-chip-supply-deal-with-openai-chatgpt-maker-gets-option-of-10-stake-in-chipmaker/articleshow/124342342.cms 44. OpenAI signs multibillion-dollar chip deal with AMD, https://www.theguardian.com/technology/2025/oct/06/openai-chipmaker-amd-deal 45. OpenAI's AMD Bet Ignites Semiconductor Sector, Reshaping AI's Future, https://markets.financialcontent.com/wral/article/tokenring-2025-10-6-openais-amd-bet-ignites-semiconductor-sector-reshaping-ais-future 46. AMD and OpenAI Announce Strategic Partnership to Deploy 6 Gigawatts of AMD GPUs, https://ir.amd.com/news-events/press-releases/detail/1260/amd-and-openai-announce-strategic-partnership-to-deploy-6-gigawatts-of-amd-gpus 47. AMD's SWOT analysis: stock soars on AI potential, faces fierce competition - Investing.com, https://www.investing.com/news/swot-analysis/amds-swot-analysis-stock-soars-on-ai-potential-faces-fierce-competition-93CH-4277002 48. Intel's Foundry Gambit: A Bold Bid to Reshape AI Hardware and Challenge Dominant Players - Stock Market | FinancialContent, https://markets.financialcontent.com/wral/article/tokenring-2025-10-7-intels-foundry-gambit-a-bold-bid-to-reshape-ai-hardware-and-challenge-dominant-players 49. NVIDIA and Intel to Develop AI Infrastructure and Personal Computing Products, https://nvidianews.nvidia.com/news/nvidia-and-intel-to-develop-ai-infrastructure-and-personal-computing-products 50. Intel breaks from GPU-centric playbook as CEO Tan charts AI-focused overhaul - digitimes, https://www.digitimes.com/news/a20250805PD215/intel-gpu-software-ai-asic.html 51. Intel's Strategy to Dominate the Semiconductor Market - Generative AI For Market Research, https://www.onwish.ai/insights/intels-strategy-to-dominate-the-semiconductor-market