Appleは今春提供予定の「iOS 26.4」アップデートでSiriの新バージョンを導入し、パーソナルアシスタントとのやり取り方法やSiri機能を大幅に改善する予定です。
iOS 26.4における追加機能や次世代「iOS 27」で実現される予定の新機能についてMacRumorsがまとめています。
- アップグレードされたアーキテクチャ
- LLMによる改善
- 当初より搭載予定のSiri Apple Intelligence機能
- 予定以上のアップデート
- Google Geminiの採用
- iOS 26.4で実装されない機能
- iOS 26.4 Siriのリリース時期
- LLM対応Siri互換性
- iOS 27でのチャットボットアップグレード

アップグレードされたアーキテクチャ
次世代SiriはChatGPT、Claude、Geminiと同様の高度な大規模言語モデルを採用。完全なチャットボット機能は実装されないものの、現行版より大幅な進化を遂げており、待望のアップグレードとなります。
現在のSiriは機械学習を活用していますが、LLMモデル(大規模言語モデル)が持つ推論能力は備えていません。Siriは複数のタスク特化モデルに依存し、要求を完了するために段階的に処理を進めます。要求の意図を判断し、関連情報(時間、イベント、名前など)を抽出した後、APIやアプリを使用して要求を完了させる必要があり、オールインワンシステムではありません。
iOS 26.4では、Siriは他のすべての機能の基盤となるLLMコアを搭載します。Siriは音声からテキストへの変換や実行キーワードの検索だけでなく、ユーザーの要求内容を具体的に理解し、推論を用いてタスクを遂行するようになります。
LLMによる改善
現在のSiriは、タイマーやアラームの設定、テキストメッセージの送信、スマートホームデバイスのオン/オフ切り替え、単純な質問への回答、デバイス機能の制御といった単純なタスクには概ね対応できますが、それ以上の複雑な要求は理解できません。複数ステップのタスクを完了できず、想定外の表現を解釈できず、個人コンテキストを持たず、フォローアップ質問にも対応していません。
LLMはこれらの問題の大半を解決するはずです。なぜならSiriに脳に相当する機能が備わるからです。LLMは要求のニュアンスを理解し、ユーザーが真に求めていることを察知し、その情報を提供したり要求されたアクションを完了するための手順を実行できます。
iOS 18発表時にAppleが実装を目指すApple Intelligence機能について説明したため、LLM搭載Siriの能力の一部は既に明らかになっています。
当初より搭載予定のSiri Apple Intelligence機能
AppleはSiriの3つの具体的な進化点として、個人コンテキストの理解、画面表示内容の認識による会話文脈の把握、アプリ内およびアプリ間の連携機能強化などについて説明していました。
Siriは代名詞や画面・アプリ内のコンテンツ参照を理解し、追跡要求に対応する短期記憶機能を備えています。
パーソナルコンテキスト
パーソナルコンテキストにより、Siriはメール、メッセージ、ファイル、写真などを追跡し、ユーザーについてより深く学習することで、タスクの完了や受信内容の管理を支援します。
画面認識
画面認識機能により、Siriは画面に表示されている内容を認識し、表示中の対象に関連する操作を実行できます。例えば、住所をテキストで送ってきた場合、Siriにその住所を連絡先カードに追加するよう指示できます。また、写真を見ていて誰かに送りたい場合、Siriに送信を依頼できます。
アプリ連携の深化
アプリ連携の深化により、Siriはアプリ内やアプリ間でより多くの操作を実行できるようになります。現在のパーソナルアシスタントでは不可能なアクションやタスクを実行できるようになります。Siriの全機能は明らかではありませんが、Appleは期待できる機能の例をいくつか示しています。
- アプリ間でファイルを移動する
- 写真を編集して誰かに送信する
- 自宅までの道順を取得し、到着予定時刻をEricと共有する
- 下書きしたメールをEricに送信する
予定以上のアップデート
2025年8月の全社員会議で、Appleソフトウェアエンジニアリング責任者Craig Federighi氏は従業員に対しSiriの失敗について説明しました。Appleは二つの別システムを統合しようとしましたが、機能しませんでした。
既存のコマンド処理システムとLLMベースのシステムが混在するハイブリッド方式は、現行Siriアーキテクチャの制約により機能不全に陥っていました。唯一の解決策はLLMを中核とした第2世代アーキテクチャへの全面的アップグレードでした。
8月の会議でFederighi氏は、Siriの大規模刷新に成功したことを明かし、iOS 18で約束した以上の大幅なアップグレードを実現できると宣言しました。
Google Geminiの採用
Appleの問題の一因は、自社開発のAIモデルに依存していたこと、そしてそれらのモデルが競合他社の能力に及ばなかった点にありました。AppleはSiriのリリース延期直後から、Siriや将来のAI機能向けにサードパーティ製モデルの採用を検討し始め、1月にはGoogleとの複数年にわたる提携を発表しました。
当面の間、よりパーソナライズされたSiriを含むAppleのAI機能は、GoogleのGeminiチームと共同開発したカスタムモデルを使用します。Appleは自社開発モデルの継続的な開発を計画していますが、現時点では多くの一般向け機能においてGeminiに依存する方針です。
iOS 26.4のSiriは、完全なチャットボット機能は備えないものの、現行版よりもGoogle Geminiに近い仕様となります。Appleは一部の機能をオンデバイスで実行し、プライバシー保護のためプライベートクラウドコンピューティングを活用する方針です。個人データは端末内に保持され、リクエストは匿名化されるほか、AI機能の無効化も引き続き可能となります。
iOS 26.4で実装されない機能
Siriはチャットボットとしては機能しないため、アップデートバージョンには長期記憶や往復会話の機能は搭載されません。さらにAppleは、限定的な入力機能を備えた現行の音声ベースインターフェースを継続使用する予定です。
iOS 26.4 Siriのリリース時期
Appleは新バージョンのSiriを2026年春に提供すると約束しており、これはiOS 26.4のリリース時期と一致します。iOS 26.4のテストは2月下旬から3月上旬に開始され、4月頃に提供が開始される見込みです。
LLM対応Siri互換性
新バージョンのSiriは、Apple Intelligenceをサポートする全デバイスで動作すると見込まれますが、Appleは詳細を明らかにしていません。一部の新しいSiri機能は旧デバイスにも提供される可能性があります。
iOS 27でのチャットボットアップグレード
Appleは「iOS 27」アップデートでSiriをさらに進化させ、チャットボットへと進化させる計画です。SiriはClaudeやChatGPTのように動作し、対話の内容を理解し応答する双方向会話が可能となります。
Siriのインターフェースやチャットボット版Siriの動作詳細についてはまだ情報が不足していますが、iOS 26.4はAnthropicやOpenAIの製品のように実際に機能するSiriバージョンへの道程における一区切りとなると予想されています。
Source: MacRumors