MetaはMuse Sparkを「自社史上で最もパワフルなモデル」と位置づけている。テキスト処理、視覚情報の理解、ツール利用、複雑なマルチエージェントのオーケストレーションを統合したマルチモーダル推論モデルであり、視覚的な思考連鎖(visual chain of thought)にも対応する。Muse Spark(Thinking)の主なベンチマーク結果は以下の通り。
高難度の推論向けには「Contemplating mode」も用意されている。複数のエージェントが並列に推論を行うことで、レイテンシを大幅に増やすことなく推論性能を高める仕組みである。Metaによると、Muse Spark(Contemplating)は「Humanity's Last Exam (with tools)」で58%、「FrontierScience Research」で38%を記録し、Gemini 3.1 Deep ThinkやGPT-5.4 Proといった他社の高度推論モードと同等以上のスコアを達成した。
Meta AIアプリなどで利用可能となる初期モデルは、「小型かつ高速」な設計を採りながら、科学、数学、健康分野の複雑な質問にも対応できる能力を備える。テキストだけでなく画像も理解するマルチモーダルモデルであり、グラフの読み取りや料理の画像からのカロリー推定など、視覚情報を伴う質問にも対応する。健康分野については、1,000人以上の医師と連携してトレーニングデータを整備し、より正確で包括的な回答を可能にしたという。
Meta AIアプリとmeta.aiも刷新され、タスクに応じて、すばやい回答を重視するモードと、より複雑な問題に向く推論重視のモードを切り替えられるようになった。さらに、複数のサブエージェントを並列に動かして回答を組み立てる仕組みも導入された。たとえば家族旅行を計画する場合、旅程作成、行き先比較、子ども向けアクティビティの検索といった役割をサブエージェントに分担し、同時に処理を進めることで、より適切な回答をより速く返せるとしている。