マイクロソフトの AI 技術は 2024 年、エージェンティックの拡大とマルチモーダルを標榜して走ってきた一年でしたが、 Copilot in Windows でもマルチモーダルでのやり取りが加速しているようです。
単なる音声入力の機能かと思っていたマイクボタンですが、 Copilot と会話を行うためのボタンとなっていることが分かりました。

といっても使ってみただけなのですが、このマイクボタンを押すと Copilot がしゃべり始めます!
サインインしているユーザー名を絡めながら、会話の糸口を探ってくれるような動きになっていました。

設定ボタンを押すと 4 種類の音声が選べました。
左が男性、右が女性のような音でした。この Canyon とか Meadow とかは名前なのかなーと思っていたのですが、直訳すると渓谷とか、草原、波、林ですよね。これらをイメージした音声。と捉えるのが良いのかもしれません。

実際この後会話を繰り返していったのですが、 Copilot がしゃべっている途中にかぶせて音声を発すると、こちらの声に耳を傾けてくれました。こういった動作はストレスなくやり取りをするのに大事なので、配慮が行き届いている感じがします。
会話を完了すると、プロンプトが表示されるのですが以下がプロンプトです。
ノート PC の内蔵マイクでやり取りしたので、バナナ(あだ名)などうまく聞き取れていないところもありますが、うまく意図を理解できているようです。これはすごいな。

バナナで呼びたいって言ったら普通ははてなマークしか頭に浮かばないですよね笑
応答の速度も速く、今となっては GPT はこんな速度でやり取りできるのか。という点にも注目です。ほとんど時差なくしゃべってくるので、本当に相手が目の前にいるような錯覚に見舞われます。
ただ、まだ Web を検索した結果で応答するなどの機能は搭載されていないようなので、この辺りは今後に期待ですね。
この機能は驚きをもって扱いたくなる内容なので、 Insider Program に参加されている方はぜひ一度利用してみてもらいたいです。
音楽:プラチナ