以下の内容はhttps://techlawyer.hatenablog.jp/entry/2025/02/03/010256より取得しました。


「AIモデルと個人データ処理」に関するEDPB意見書について

Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI modelsに目を通したので、雑駁ですがそのメモです。

意見書は後述のとおり4項目(回答では2番目と3番目がまとめられているので3項目)からなっているのですが、重要と思われる最初の3項目を対象にします。

なお、deployをどう訳すか悩んでいるのですが、高木先生が「配備」でよくて慣れの問題ではという趣旨のことを仰っていたので、ひとまず「配備」と訳してみることにしました。

 

前提

  • 意見書は、アイルランド当局の照会に応じて発行されたものである。照会事項は以下のとおりである(詳細はpara. 4)。
    • ①AIモデルが匿名とみなされる(≒その提供自体が個人データ処理とみなされない?)のはどのような場合か。
    • ②AIモデルの開発(development)における個人データ処理が、正当利益によって正当化されるのはどのような場合か。
    • ③AIモデルの配備(deployment)における個人データ処理が、正当利益によって正当化されるのはどのような場合か。
    • ④AIモデルの開発時における違法な個人データ処理は、その後の処理(subsequent processing)又はAIモデルの運用(operation of the AI model)にどのような影響を与えるか。
  • アイルランド当局の照会は、特にLLMの個人データ保護上の懸念に言及しており(para. 6)、意見書も、主としてLLMを含む生成AIを念頭に書かれているものと思われる(e.g. para. 90, 107)。

 

照会事項1について

  • 意見書は、
    • 照会事項1(AIモデルが匿名とみなされる場合)について、ブライヤー事件判決を引用して、(i)訓練に使用された個人データが直接(確率的なものを含む。)に抽出される可能性と、(ii)意図的かどうかにかかわらず、クエリを通じて当該個人データが取得される可能性が、全てのデータサブジェクトとの関係で取るに足らない程度(insignificant)である場合であり(para. 43)、
    • そのために、
      • (a)訓練データの選択(個人データの収集を回避又は制限するための措置)、
      • (b)データの準備・最小化(匿名データ・仮名化、最小化のための戦略(strategy)・技術、関連性のない個人データの除去)、
      • (c)訓練の方法(過学習の回避、差分プライバシー等)、
      • (d)出力に関する対策を考慮するとしている(para. 44-53)。
  • 日本では、
    • 個情委は、2021年6月更新のQ&A 1-8で、「複数人の個人情報を機械学習の学習用データセットとして用いて生成した学習済みパラメータ(重み係数)は、学習済みモデルにおいて、特定の出力を行うために調整された処理・計算用の係数であり、当該パラメータと特定の個人との対応関係が排斥されている限りにおいては「個人に関する情報」に該当するものではないため、「個人情報」にも該当しない」とし、
    • 2023年5月の一般及びOpenAIに対する注意喚起においても、専らクエリ(入力データ)を問題とし、LLM自体や出力データ言及していない。
    • 3年ごと見直しでも、日本法が検索エンジンに個情法を適用してこなかったことと整合的である旨の指摘(2024年6月12日付け高木意見書)及び「仮に一部の者が自らのデータを学習したAIの出力内容(アウトプット)を望まないとの理由で拒否をしたとしても、学習の結果得られる生成AIモデルやアウトプットにはほぼ影響がない一方で、学習データの中から特定の個人に関連するデータをすべて削除することが極めて難しいことから、アウトプットを制御する方が現実的」である旨の指摘(2024年12月3日付けヒアリング議事録のNICT部分及び同日付NICT鳥澤プレゼン資料参照。この指摘は同月17日付け「「個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点」に関するヒアリングの概要について」にも引用されており、上記の引用はそれによった。)がされている。

 

照会事項2及び3について

  • 意見書は、照会事項2及び3(開発及び配備時における個人データ処理の正当利益による正当化)について、正当利益に関するWP29意見書及びEDPBガイドライン(2024年11月20日にパブコメ終了)に従って、
    • (a)正当利益の存在、
    • (b)必要性テスト(個人データ処理が目的追求を可能にするか及びより侵襲的でない方法がないか)、
    • (c)利益衡量テスト(データサブジェクトの利益が正当利益に優越するものでないか)の3ステップの判断枠組みを示す(para. 66-75, 76)。
  • 問題は、(c)で何が考慮されるかであるが、以下が示されている。
    • データサブジェクトの利益に関しては、
      • プライバシー(基本権憲章7条)及び個人データ保護の権利(同8条)に対するリスクとして、①開発時におけるスクレイピング、配備時におけるデータサブジェクトの権利に反する方法での処理(?)、偶然又は攻撃により学習データに含まれる個人データが推測可能となることによる、レピュテーションリスク、なりすまし・詐欺、セキュリティリスク(para. 79)、
      • 表現の自由(同11条)に対するリスクとして、②開発時における大規模・無差別なデータ収集による萎縮効果、③配備時においてAIモデルがデータサブジェクトのコンテンツ公開のブロックに用いられることによるリスク(para. 80)、
      • ④脆弱な個人に不適切なコンテンツを推奨するAIモデルによる精神的健康に対するリスク(para. 80)、
      • ⑤求人応募の事前選別による就労の権利に対するリスク(para. 80)、
      • 差別されない権利に対するリスク
      • このうち、①②は主として生成AIに、③〜⑥は主として識別AIに関わると思われる。なお、①はGDPRのrecital 75そのものである。
    • データサブジェクトに対する処理の影響に関して、
      • (i)データの性質、(ii)処理の文脈、(iii)処理の結果がありうるとした上で(para. 83)、
      • データの性質に関して、特別カテゴリの個人データや前科データ等とは別に(apart from)、財務データや位置データなどの高度にプライベートな情報を明らかにする個人データ(certain types of personal data revealing highly private information)は、データサブジェクトに重大な影響をもたらす可能性があること(para. 84)、
      • 処理の文脈に関して、モデルがどのように開発されたか、モデルがどのように配備されるか、個人データ保護のための対策が適切かどうか(para. 85)、処理が他のデータセットと組み合わされるかどうか、処理の規模・処理される個人データの量、データサブジェクトの脆弱性(児童など)、コントローラーとの関係(顧客かなど)(para. 86)、
      • 処理の結果に関して、不適切な利用への対策(ディープフェイク、偽情報、フィッシング、操作的(manupilative)なAIなど)(para. 90)。
    • データサブジェクトの合理的期待に関して、
      • 開発時の個人データ処理について、データが公開されているか、データサブジェクトとコントローラーの関係、サービスの性質、データが収集された文脈、データが収集されたソース、モデルの潜在的なさらなる使用、個人データがオンラインに存在することの認識(para. 93)、
      • 配備時の個人データ処理について、パーソナライゼーションの認識、処理が当該データサブジェクトにのみ影響するのか全ての顧客に提供されるサービスの改善に使用されるのか、データサブジェクトとコントローラーの関係(para. 95)。

 

コメント

  • EDPBが求める開発時の対策は、NICTヒアリングで困難かつ効果が乏しいとされていることを、正面から要求するものとなっているように思われる。
  • 日本では、処理自体に法的根拠は要求されていないが、バランシングテストに関して示されたリスクないし(データサブジェクトの)利益は、日本でも参考になる。意見書が示すリスクのうち、③〜⑥は、(識別)AIを利用した個人データ処理の典型的なリスクである。一方、生成AIに関して示されたリスクが①②のみである(ように見える)ことは、少なくとも個人データ処理の文脈で生成AIを規制する必要性の小ささを示しているかもしれない。
  • 正当利益の箇所でreasonable expectations of data subjectsに言及があることは興味深い。(表面的にしか調べられていないが)GDPRrecital 47でこの概念に言及しており、EDPBガイドラインで具体化されている。DPDにはそのような言及はなかったが、WP29意見書はこれに言及しており、その際、ECHR(基本権憲章と異なりデータ保護の権利が独立していない。)におけるプライバシーに関するECtHR判例が引用されている。もしかすると、Katz判決を始めとする修正4条解釈がECtHR判例に影響し、これがDPD解釈に影響し、それがGDPRに取り込まれたのかもしれず、仮にそうだとすると、プライバシーの権利と個人データ保護の権利を区別した基本権憲章の下で制定されたGDPRとしてそれは一貫しているのかという疑問が生じうる。



以上の内容はhttps://techlawyer.hatenablog.jp/entry/2025/02/03/010256より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14