以下の内容はhttps://oregin-ai.hatenablog.com/entry/2026/01/02/172551より取得しました。


CISA・英NCSC等「Principles for the Secure Integration of Artificial Intelligence in Operational Technology」を読み解く:重要インフラのOT環境におけるAIの安全な統合のための原則

今回は、2025年12月3日にCISAや英NCSCなど国際共同で公開された「Principles for the Secure Integration of Artificial Intelligence in Operational Technology」の内容を整理し、自身の学びとしてまとめました。

本資料は、重要インフラの運用環境(OT)にAIを導入する際の指針をまとめたものになっています。

出典:Principles for the Secure Integration of Artificial Intelligence in Operational Technology

はじめに

2022年11月のChatGPT公開以来、AIは社会のあらゆる側面に統合されており、重要インフラの所有者および運用者にとっても、効率向上や意思決定の強化などの利益をもたらす可能性を秘めています。

しかし、AIを工場などのOTシステムに取り入れると、時間が経つにつれてAIの判断が本来の正しい動きから少しずつズレてしまったり(ドリフト)安全のために設けられた制限をAIが勝手に無視してしまったり(バイパス)するような、深刻なリスクを招く恐れがあります。

重要インフラの可用性と信頼性を確保するためには、これらのリスクを慎重に管理することが不可欠です。本ガイダンスでは、AIの利点を活用しつつリスクを軽減するために遵守すべき4つの主要な原則が概説されています。

重要な用語と範囲

本資料における「AI」は、人間が定義した目的のために予測、推奨、決定を行うシステムを指します。また、「安全性」は物理的な機能安全を、「セキュリティ」は機密性・完全性・可用性の確保と定義されています。本ガイダンスの範囲は、統合においてより複雑な安全性とセキュリティの考慮が必要となる機械学習(ML)および大規模言語モデル(LLM)ベースのAI、ならびにAIエージェントに焦点が当てられています。

パデューモデルによるAIの応用

重要インフラにおけるAIの応用例は、OTとITの階層関係を示すパデューモデルに沿って分類されています。

レベル0から3の運用層では、主に予測MLモデルがフィールドデバイスのデータソース特定、ローカル異常検知、予測保守に使用されます。一方で、レベル4および5のビジネスネットワーク層では、AIエージェントやLLMがワークフローの最適化や、OT・ITデータの行動分析を通じた意思決定の支援に活用されます。

原則1 - AIを理解する

サイバーセキュリティ・リスクに加え、データ品質やAIモデルのドリフト、説明可能性の欠如、オペレーターの認知負荷といったAI固有のリスクが、OTの安全性や可用性に及ぼす影響を理解する必要があります。また、開発から運用までの各段階で役割と責任を明確にする安全なAIシステム開発ライフサイクルの重視や、人的監視を維持するための職員教育、ならびに「説明可能なAI(XAI)」の活用が求められています。

原則2 - OTドメインでのAI利用を検討する

AIが特定のニーズに対して最も適切なソリューションであるかを、セキュリティ、パフォーマンス、コスト、安全性の観点から評価しなければならないとされています。

ここでは、エンジニアリング構成データ等のデータセキュリティリスクの管理や、ベンダーに対するSBOM(ソフトウェア部品表)の提供要求AI機能の無効化制御などの透明性が重要視されています。

さらに、既存のOTインフラを検討し、AI有効システムのプロセスについて従来の自動化または手動操作に復帰するフェイルセーフ機構を組み込んだ、AIシステムの統合計画を策定することが重要とされています。

原則3 - AIガバナンスおよび保証フレームワークを確立する

リーダーシップや専門家を含む利害関係者を関与させたガバナンスメを確立し、従来のサイバーセキュリティ要件や脆弱性管理にAIシステム評価を組み込むことが必要とされています。
本番環境への展開前には、ハードウェア・イン・ザ・ループ(HIL)検証を含む徹底したテストを実施し、AI出力が安全閾値を下回った場合に非AIシステムへデフォルトで戻る基準を策定することが推奨されています。

原則4 - AIおよびAI対応OTシステムに監視とフェイルセーフを組み込む

重要なOT操作においてオペレーターが意思決定に関与するHuman-in-the-Loopを確立し、透明性を確保することが求められています。異常検知や行動分析を通じてAIのドリフトを監視するとともに、AIシステムが故障したり、予期せぬ動作をしたり、あるいはサイバー攻撃を受けた際に、インフラ全体の運用を停止させるのではなく、安全かつ制御された状態で機能を継続または縮小させる機構(Fail Gracefully)を実装し、インシデント対応計画にAI固有の障害状態を組み込むことが求められています。

結論

AIの統合は重要インフラに機会とリスクの両方をもたらします。効率向上を実現しつつ安全性を維持するためには、本ガイダンスの4つの原則を遵守し、AIモデルを継続的に監視、検証、および洗練することが不可欠とされています。

おわりに

本ガイダンスの読み解きを通じて、従来のOTセキュリティの枠組みに、AI特有の非決定的な挙動やデータドリフトといった動的なリスクをいかに融合させるべきか、その具体的な手法についての理解を深めることができました。
特に、パデューモデルの各階層におけるAIの役割定義と、HIL検証による物理層への影響評価の重要性は、今後のセキュリティ設計において極めて重要な知見であると認識しています。

今後も国際的なレギュレーションや技術標準の動向を継続的に注視し、高度化する技術環境におけるサイバーレジリエンスの確保に貢献できるよう、精進してまいります。






以上の内容はhttps://oregin-ai.hatenablog.com/entry/2026/01/02/172551より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14