以下の内容はhttps://infomation-sytem-security.hatenablog.com/entry/what-is-hiroshima-ai-processより取得しました。


【専門家が解説】G7広島AIプロセスとは?情シス・セキュリティ担当者が今知るべき国際ルールを徹底解剖

プロフィールアイコン

筆者名:城咲子(じょう せきこ)

情報システム部でセキュリティを担当している城咲子です。セキュリティに関する情報や日常の出来事(グチやボヤキ笑)などを発信していきます。(情報処理安全確保支援士/登録セキスペ/CISSP)

\ 好きなことば /

  • 最小権限の原則
  • 測定できなければ管理できない!
  • 失敗する可能性のあるものは、いずれ失敗する。

詳しいプロフィールはこちら

「広島AIプロセス」という言葉をニュースなどで耳にする機会が増えてきましたね。東証プライム企業の情報システム部でセキュリティを担当している私、城咲子も、この動向を非常に重要視しています。生成AIの急速な進化は、ビジネスに大きな変革をもたらす一方で、情報漏えいやフェイクニュース、著作権侵害といった新たなセキュリティリスクを生み出しているからです。

この国際的なルール作りが、私たち企業の実務にどのような影響を与えるのか、CISSPや登録セキスペの視点から、分かりやすく解説していきます。

AIセキュリティの最新動向全般については以下の記事で詳細に解説しているので合わせてご確認ください。

infomation-sytem-security.hatenablog.com

G7広島AIプロセス(HAIP)とは?

G7広島AIプロセス(Hiroshima AI Process, HAIP)とは、一言で言えば、「生成AIの国際的なルール作りを進めるためのG7主導の枠組み」です。2023年5月のG7広島サミットで、岸田総理大臣の提唱により立ち上げられました。

急速に進化・普及する生成AIについて、その恩恵を最大化しつつ、リスクを軽減するための共通の考え方(ガードレール)を国際的に作っていこう、という目的があります。特に、国によって規制の強弱がバラバラになる「規制の断片化」を防ぎ、イノベーションを阻害しない、バランスの取れたガバナンスを目指しているのが特徴です。

参照:総務省|広島AIプロセス

なぜ今「広島AIプロセス」が重要なのか?その背景

なぜこれほどまでに、国際社会が一体となってAIのルール作りに取り組んでいるのでしょうか。その背景には、ChatGPTをはじめとする生成AIの爆発的な普及があります。

  • 利便性の裏に潜むリスク: 生成AIは業務効率を飛躍的に向上させる可能性がある一方で、下記のような深刻なリスクもはらんでいます。
    • 機密情報・個人情報の漏えい: 従業員がプロンプトに機密情報を入力してしまう。
    • 偽情報(フェイクニュース)の拡散: もっともらしい嘘の情報を生成し、社会を混乱させる。
    • サイバー攻撃への悪用: フィッシングメールの巧妙化やマルウェアの自動生成。
    • 著作権・知的財産権の侵害: AIが学習データに含まれる著作物を無断で利用・出力してしまう。
  • 国境を越えるAIの性質: AIサービスやデータは国境を簡単に越えてやり取りされます。そのため、一国だけで厳しい規制をかけても実効性がなく、国際的な協調が不可欠なのです。

このような背景から、「信頼できるAI(Trustworthy AI)」を実現するための国際的な議論の場として、広島AIプロセスが設立されました。

広島AIプロセスの2つの柱:「国際指針」と「国際行動規範」

広島AIプロセスでは、具体的な成果物として「国際指針」と「国際行動規範」が示されています。これは、AIに関わる全ての人々が考慮すべき大原則と、特に高度なAIを開発する事業者が遵守すべき具体的な行動を示したものです。

1. 全てのAI関係者向けの「広島プロセス国際指針」

こちらは、AIの開発者だけでなく、提供者、利用者(つまり私たちの企業も含まれます)など、AIに関わる全てのステークホルダーが対象です。信頼できるAIの実現に向けた11の指針が示されています。

【広島プロセス国際指針(全文)】

  1. リスクの特定、評価、緩和: AIライフサイクル全体を通じて、AIのリスクを特定、評価、緩和するための措置を講じる。
  2. 脆弱性の監視と対処: 意図された、または合理的に予見可能な誤用を含む、AIシステムの脆弱性、インシデント、パターンを監視、測定、報告し、対処する。
  3. 情報共有: AIのリスク、インシデント、悪用のパターンに関する情報を、組織間で、また、可能であれば他のステークホルダーと共有し、ベストプラクティスを策定する。
  4. セキュリティ: 堅牢なセキュリティ管理(物理的セキュリティ、サイバーセキュリティ、担当者のセキュリティを含む)を導入・実施する。
  5. アカウンタビリティ(説明責任): AIシステムに関連するリスクに対処するための適切なガバナンス、アカウンタビリティ、監督メカニズムを開発・導入する。これには、人間の監督が含まれうる。
  6. リスクに応じた情報公開: AIシステムの能力、限界、及び適切な利用と不適切な利用に関する情報を、AI利用者が十分に理解し、意思決定できるように、公に利用可能な報告書などの形で透明性を確保する措置を講じる。
  7. 責任ある企業統治: 責任あるガバナンス体制と文化の発展に貢献し、信頼できるAIの原則を実施するための措置を講じる。
  8. 人権と基本的自由の尊重: AIのライフサイクル全体を通じて、適用される国内法及び国際人権法に従い、人権と基本的自由を尊重する。
  9. データ品質とプライバシー保護: 適用されるデータ保護・プライバシーの法的枠組みに従い、適切なデータ品質を確保し、個人データを保護するための措置を講じる。
  10. 人間の監督と制御: 必要に応じて適切な人間の監督を確保するなど、人間の制御可能性を確保するための措置を講じる。
  11. リスク管理の国際標準化: 信頼できるAIの実現に向けて、国際的な標準化団体におけるリスク管理の枠組みや標準の開発を促進する。

私たち企業にとっては、AIを「利用する」立場として、これらの指針を理解し、社内のAI利用ガイドラインなどに反映させていく必要があります。

2. 高度なAIシステム開発者向けの「広島プロセス国際行動規範」

こちらは、基盤モデルや生成AIを開発する大手テック企業などを主な対象とした、より具体的な12の行動規範です。

【広島プロセス国際行動規範(全文)】

  1. リスク緩和措置のテスト: 市場に投入する前に、内部及び外部の専門家によるテスト(レッドチーム)、評価、及び緩和を通じて、高度なAIシステムに伴うリスクを特定、評価、緩和するための適切な措置を講じる。
  2. 市場投入後のリスク特定と緩和: 市場投入後に生じうるリスクや悪用を特定、評価、緩和するための適切な措置を講じる。これには、脆弱性の開示プロセスやインシデント対応メカニズムの導入が含まれる。
  3. モデル能力・限界等の報告: 高度なAIシステムの能力、限界、及び適切な利用と不適切な利用の領域に関する情報を記載した報告書を公表し、透明性を確保するための措置を講じる。
  4. 情報共有とインシデント報告: 業界、政府、市民社会、学術界の関係者との間で、AIのリスク、安全性及びセキュリティに関する脅威や脆弱性、インシデント、悪用のパターンに関する情報を共有し、インシデント報告のためのシステムを導入するための措置を講じる。
  5. ガバナンスとリスク管理方針の策定: 高度なAIシステムのリスクに合わせた安全性、セキュリティ、信頼性のためのガバナンスとリスク管理の方針を策定し、開示する。これらの方針には、プライバシー・バイ・デザインの原則の適用や、プライバシーポリシーの実施を含めるべきである。
  6. 堅牢なセキュリティ管理: 堅牢なセキュリティ管理を導入し、実施する。これには、AIモデルの重みやアルゴリズムを含む知的財産の不正な開示や変更に対する保護、及び物理的・サイバー・担当者のセキュリティが含まれる。
  7. コンテンツ認証と出所確認: コンテンツ認証や出所確認のための技術的な仕組み(電子透かしなど)の開発と導入にコミットし、利用者がAI生成コンテンツを特定できるようにする。
  8. 研究開発の優先順位付け: 信頼できるAIを実現するため、リスクを緩和するためのアライメント研究や、電子透かしのようなツールの開発など、安全性とセキュリティに関する研究開発に優先的に投資する。
  9. 気候変動・環境・人権への配慮: 気候変動との闘い、地球環境の保護、人権の尊重など、世界の課題への対処を支援するため、AIの利用を優先する。
  10. 国際標準の開発支援: 信頼できるAIの実現を促進するため、国際的な標準化団体における標準の開発を促進する。
  11. 適切なデータ入力管理: 適用されるデータ保護・プライバシーの法的枠組み及び知的財産(著作権を含む)の法的枠組みに従い、適切なデータ入力の慣行と管理を導入する。
  12. アカウンタビリティの確保: 高度なAIシステムのライフサイクル全体を通じて、アカウンタビリティを確保するための適切な措置を講じる。

これらの規範は、私たちが利用するAIサービスが、どのような安全対策の上で提供されているのかを知る上での重要な基準となります。

参照:総務省|広島AIプロセス 成果文書

【情シス・セキュリティ担当者必見】広島AIプロセスが実務に与える影響と取るべき対策

では、この国際的なルール作りは、私たちの日々の業務にどう関わってくるのでしょうか。情シス・セキュリティ担当者として、今から準備しておくべきことを4つのポイントにまとめました。

1. 社内AI利用ガイドラインの見直し・策定

もし、まだ社内に明確なAI利用ガイドラインがない場合は、早急に策定が必要です。既に存在する場合でも、広島AIプロセスの指針を踏まえて見直しましょう。

チェックすべき項目:

  • 入力禁止情報の明確化: 機密情報、個人情報、顧客情報などをプロンプトに入力しないことを徹底する。
  • 利用目的の制限: どのような業務にAIを利用して良いか、逆に禁止する用途は何かを定める。
  • 生成物のファクトチェック: AIの出力は鵜呑みにせず、必ず真偽を確認するプロセスを義務付ける。
  • 著作権への配慮: 生成物を商用利用する際の注意点を記載する。

2. AIのリスクアセスメントと管理体制の構築

自社でAIをどのように利用しているか、あるいは将来的にどのように利用する計画があるかを棚卸しし、潜在的なリスクを洗い出すことが重要です。

例えば、「顧客対応にAIチャットボットを導入する」という計画があれば、「個人情報の不適切な取り扱い」や「AIによる差別的な回答」といったリスクが考えられます。これらのリスクに対して、誰が責任を持つのか、どのように監視・対応するのか、といったAIガバナンス体制を構築する必要があります。

3. 透明性と説明責任(アカウンタビリティ)の確保

自社のサービスにAIを組み込む場合、顧客や利用者に対して「どこで、どのようにAIが使われているのか」を可能な限り透明にし、何か問題が起きた際には説明できる体制を整えておくことが求められます。

これは、インシデント発生時の原因究明や責任の所在を明らかにするためにも不可欠です。ログの取得・管理方法なども、AI利用を前提とした設計に見直す必要があるかもしれません。

4. セキュリティ対策の強化

AIを狙った新たなサイバー攻撃も増えています。

  • プロンプトインジェクション: 攻撃者が巧妙なプロンプトを送り込み、AIに意図しない動作をさせる。
  • 学習データへの汚染(ポイズニング): AIの学習データに悪意のある情報を混ぜ込み、AIの判断を誤らせる。

このような攻撃から自社のシステムやデータを守るため、従来のセキュリティ対策に加えて、AIに特化した脅威への対策も検討していく必要があります。

今後の展望と日本の動向

広島AIプロセスは、G7だけでなく、より多くの国や地域を巻き込んだ「広島AIプロセス・フレンズグループ」へと発展しており、国際的なルール形成の中核となっています。

日本国内でも、このプロセスと連携する形で、経済産業省や総務省が中心となり「AI事業者ガイドライン」が策定されています。このガイドラインは、広島AIプロセスの内容を、より日本のビジネス環境に即した形で具体化したものであり、私たち実務担当者にとっては必読のドキュメントです。

参照:経済産業省|AI事業者ガイドライン

今後、これらの指針やガイドラインが、法的な拘束力を持つ規制へと発展していく可能性も十分に考えられます。

まとめ

今回は、「G7広島AIプロセス」について、その概要から私たち情シス・セキュリティ担当者が取るべき対策までを解説しました。

【本記事のポイント】

  • 広島AIプロセスは、安全で信頼できるAIの利用に向けた国際的なルール作りの枠組み。
  • 全てのAI関係者が対象の「国際指針」と、開発者向けの「国際行動規範」が2つの柱。
  • 私たち企業は、AI利用ガイドラインの整備、リスク管理、透明性の確保といった対応が急務。
  • 国内外の動向を常に注視し、変化に対応できる体制を整えておくことが重要。

AIはもはや無視できないテクノロジーです。そのリスクを正しく理解し、適切に管理しながら活用していくことこそが、これからの企業に求められる姿勢と言えるでしょう。私も、引き続き最新情報をキャッチアップし、このブログで共有していきたいと思います。

AIセキュリティの最新動向全般については以下の記事で詳細に解説しているので合わせてご確認ください。

infomation-sytem-security.hatenablog.com

【チェックリスト】広島AIプロセスを踏まえた情シス・セキュリティ担当者のタスク

広島AIプロセスの国際指針は、AIを利用する全ての組織に関わるものです。自社のAIガバナンス体制を強化するため、以下の項目について対応状況を確認し、計画的に実施していきましょう。

カテゴリ チェック項目 対応状況 担当部署 備考
方針・規程 1. AI利用ガイドラインの策定/見直し\<br>・入力禁止情報(機密情報、個人情報)の定義\<br>・利用目的の明確化と利用範囲の制限\<br>・生成物のファクトチェックと著作権に関する注意喚起 ☐未対応\<br>☐策定中\<br>☐策定済 情報システム部\<br>法務部 国際指針の「6.リスクに応じた情報公開」や「8.人権と基本的自由の尊重」に関連。
2. AIガバナンス体制の構築\<br>・AI利用に関する責任者と役割の明確化\<br>・リスク評価と対応プロセスの定義 ☐未対応\<br>☐策定中\<br>☐策定済 経営層\<br>情報システム部 国際指針の「5.アカウンタビリティ(説明責任)」に直結。
リスク管理 3. AI利用状況の棚卸しとリスク評価\<br>・社内で利用されているAIサービス(SaaS等)の洗い出し\<br>・各AI利用シーンにおける潜在リスクの特定と評価 ☐未対応\<br>☐実施中\<br>☐実施済 情報システム部\<br>各事業部 国際指針の「1.リスクの特定、評価、緩和」の第一歩。
4. 脆弱性・インシデント対応体制の整備\<br>・AI関連のインシデント発生時の報告・対応フローの確立\<br>・プロンプトインジェクション等の新たな脅威に関する情報収集 ☐未対応\<br>☐実施中\<br>☐実施済 CSIRT\<br>情報システム部 国際指針の「2.脆弱性の監視と対処」と「3.情報共有」に対応。
技術的対策 5. セキュリティ対策の見直し\<br>・DLP(Data Loss Prevention)等による機密情報の送信監視\<br>・利用するAIサービスのセキュリティ設定の確認・強化\<br>・ログの取得と監視体制の構築 ☐未対応\<br>☐実施中\<br>☐実施済 情報システム部 国際指針の「4.セキュリティ」と「10.人間の監督と制御」を技術的に担保。
6. データ管理体制の強化\<br>・AIの学習に利用するデータの品質担保\<br>・個人データや機密情報の適切なマスキング・匿名化処理 ☐未対応\<br>☐実施中\<br>☐実施済 データ管理部\<br>情報システム部 国際指針の「9.データ品質とプライバシー保護」を遵守。
人材・教育 7. 従業員向けリテラシー教育の実施\<br>・全従業員を対象としたAI利用ガイドラインの周知徹底\<br>・AIのリスクに関する定期的な研修や注意喚起 ☐未対応\<br>☐実施中\<br>☐実施済 人事部\<br>情報システム部 国際指針の「7.責任ある企業統治」の一環。従業員一人ひとりの意識が重要。
その他 8. 最新動向の継続的な情報収集\<br>・広島AIプロセスやAI事業者ガイドラインの改訂状況の把握\<br>・国内外のAI関連法規制の動向調査 ☐未対応\<br>☐実施中\<br>☐実施済 情報システム部\<br>法務部 国際指針の「11.リスク管理の国際標準化」の動きを注視。



以上の内容はhttps://infomation-sytem-security.hatenablog.com/entry/what-is-hiroshima-ai-processより取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14