
Microsoft、AIエージェント専用のセキュリティレイヤーを発表 — Defender・Entra・Purviewで可視化と保護を強化
Microsoftは、AIエージェントの運用が広がる中で「エージェント自体を守る」ための新たな仕組みを発表した。Agent 365を中心に、Defender、Entra、Purview、Security Copilot、Sentinelと連携することで、組織内で自律的に動くAIエージェントの可視化、アイデンティティ保護、機密データの漏えい防止、運用ガバナンスを一元管理できる体制を目指す。この記事では発表された機能と実務で押さえるべきポイントを分かりやすく解説する。
発表の要旨:AIエージェントは「普通のアプリ」ではない
Microsoftの発表は、AIエージェントを従来のアプリケーションと同じ扱いにすることの危険性を強調している。エージェントは増大する自律性とワークフロー内でのデータの流れを伴い、従来のセキュリティ境界やポリシーだけではカバーしきれないリスクを生む。そこで同社は、エージェントを管理するための専用の制御面(control plane)を用意し、可視化・検出・ガバナンス・防御を統合するアプローチを提示した。
Agent 365:エージェントの「制御盤」
中心となるのがAgent 365という制御プレーンだ。組織内に展開された全AIエージェントの一覧と状態を中央で把握でき、IT・セキュリティ・業務部門が共同で管理できる点が特徴である。Agent 365はライセンス体系の一部として提供され、エージェントによる自動化が増える環境での標準的な管理レイヤーになることを狙っている。制御盤として期待される機能は次のとおりだ。
-
エージェントの登録・分類と稼働状況のダッシュボード化
-
組織ポリシーに基づくアクセス制御や承認ワークフローの連携
-
異常な振る舞いや権限の逸脱を検出するための監査ログ集約
これにより、誰がどのエージェントをどのデータに対して動かしているかを把握しやすくなる。
可視化とガバナンス機能の拡充
Agent 365に加え、セキュリティチーム向けの「Security Dashboard for AI」が一般提供され、AIに関連するリスクを統合表示する。このダッシュボードはCISOやSOCチームが全体像を把握し、優先的に対応すべき領域を特定する助けになる。またネットワークレベルでの「Shadow AI(未管理のAI利用)」検出機能が導入され、企業ネットワークを通じて行われる未承認のAIサービス利用を検知する仕組みが追加される予定だ。エンドポイント管理の面では、Intuneのアプリインベントリ強化も予定され、インストールされたAIアプリの深い可視性が得られるようになる。
アイデンティティとデータの保護:EntraとPurviewの強化
アイデンティティ領域では、Entraのバックアップ・リカバリ機能やマルチテナント向けのテナントガバナンスなど、管理性を高める機能が追加される。パスキーの普及に向けてWindows Helloとのネイティブ統合も強化され、パスワード依存を下げる動きが加速する。データ保護面では、PurviewによりAIプロンプトやワークフロー内で個人情報やクレジットカード番号などの機密情報をブロックするポリシー設定が可能になる点が重要だ。Microsoft自身が指摘するように、機密データはAIワークフローを通じて従来より速く移動するため、検知と制御の自動化が不可欠になる。
Security Copilot と Sentinel:防御と自動対応の強化
Security CopilotがMicrosoft 365のE5/E7に標準的に統合され、エージェント向けの自動化機能も拡充される。DefenderにはSecurity Analyst Agentが導入され、ルールベースの反復作業をエージェントに任せることでアナリストの負荷を下げ、インシデント対応のスピードを上げる狙いがある。さらにSentinelとの連携により、検出から対応までの連続的なフローを自動化し、エージェントの不正利用や誤操作による被害を最小化することが期待される。
実務的な影響と組織が取るべき初手
この方向性を踏まえ、実務で押さえるべきポイントは次の通りだ。
-
まずは「見える化」:Agent 365やSecurity Dashboardを活用して、どのエージェントが稼働しているか、どのデータにアクセスしているかを把握する。影響範囲を把握しなければ対策は打てない。
-
ガバナンス設計:エージェントのライフサイクル管理、承認ルール、監査ログの保持方針を定める。特に自律性の高いエージェントには明確な権限制御が必要。
-
アイデンティティ強化:Entraの新機能やパスキー導入で認証基盤を強化し、エージェントに付与する権限を最小権限に抑える。バックアップ/リカバリ計画の検討も忘れずに。
-
データ入力の検査と制限:Purviewを使ってAIへの入力・出力経路で機密情報が扱われないようにブロックやマスキングを適用する。プロンプトガバナンスを運用ルールに組み込む。
-
自動応答とオーケストレーション:Security CopilotやDefenderのエージェント機能で定型対応を自動化し、SOCの人的負荷を下げる。だが自動化の範囲とエスカレーション条件は厳密に定義すること。
-
教育と運用監視:開発チームや業務担当者に対する利用ルール教育、定期的なレビューとペネトレーションテストの実施を行う。
注意点と残る課題
今回の発表は管理ツールと検出機能を強化するが、実務上の課題はいくつか残る。AIエージェントは外部APIやサードパーティモデルを呼び出す設計になりやすく、サプライチェーンリスクが増大する点、ポリシー適用がリアルタイム性に追いつかない点、そして組織横断での責任分界(誰がエージェントを承認し、誰がインシデントを処理するのか)を明確化する必要がある。さらに、検出された「Shadow AI」をどう扱うか(業務継続性とのトレードオフ)も運用上の難題だ。
まとめ:管理と制御が次の競争力になる
AIエージェントは作業効率や自動化を劇的に高める一方で、新しいリスクも持ち込む。Microsoftの発表は、エージェントを単なるアプリとして扱わず専用の管理・防御レイヤーを設ける考え方を提示した点で意義がある。組織はまず可視化とガバナンス設計に着手し、段階的にアイデンティティとデータ保護、自動対応の仕組みを整備することで、AIエージェントを安全に活用できる体制を作るべきだ。今回の機能はそのための選択肢を広げるものであり、適切に取り入れればセキュリティと業務効率の両立に寄与するだろう。