1.今日のテーマ
週末が見えてきた先週木曜日のお昼ごろ、以下のポストをしたところ多くのリアクションをいただきました。
今でもたまに見かけることがあるのですが、「AIへの個人情報の入力は禁止」みたいなルールはやめた方がいいですよ。
— 弁護士 世古修平 (@seko_law) March 19, 2026
「個人情報」の正しい定義を理解していれば、その範囲が非常に広く、禁止なんてできるはずがないことがわかるはずです。守れないルールほど邪悪なものはない。
いただいたコメントの中には、以下のように有識者の方々からの賛同の声も多く聞かれたのですが…
たしかに2023-24頃に作成された社内AIガイドラインでは「個人情報は入力禁止」と定める例が多かった印象ですが、それだと実務用途が著しく限定されることから、現在は「一定のセキュリティ等の要件(基準適合体制含む)を満たすAIサービスであれば個人情報の入力は可」がスタンダードな印象です。いま… https://t.co/C8gZCpykYZ
— 杉浦健二 STORIA LAW (@kenjisugiura01) March 19, 2026
ほんこれ。でも自分にも責任の一端があると感じました。… https://t.co/PmGW5MpUwU
— 大井哲也弁護士|プライバシー&セキュリティ (@tetsuyaoi2tmi) March 19, 2026
Suica事件の意義も理解できず、匿名と仮名の違いも未だ理解できず、文書に黒塗りで解説する者もいる。
— 鈴木 正朝 (@suzukimasatomo) March 19, 2026
2000個問題解消が当然の要請で公民一元化も未だ道半ばで、散在情報と処理情報の区別の意義もわからず、地方自治がーと批判する者もまだ多数。… https://t.co/fwGt3Ebelb
他方で、リアクションを見る限り「それじゃあ一体どうしたら良いんだ」と思っておられそうなポストも数多く見られました。ひょっとしたらXを見かけた方が、自社の管理部門にこの投稿だけを共有し、突きつけられた管理部門の方が困ってしまっているかもしれない。
問題提起をして皆の心をざわつかせながら、そこに答えを用意しないままでいるのはあまり誠実な態度ではないよな…という気が週末にしてきたので、「それじゃあ一体どうしたら良いんだ」という問いに対する回答をブログの形でまとめておこうと思います。

2.「個人情報」の正しい定義
法律上の「個人情報」の定義は非常に広いです。
非常に残念なことではありますが、多くの人が法律上の個人情報の定義を正しく理解しないまま現実のビジネスは回っています。氏名や住所が個人情報に該当することについては疑いがないと思いますが、
- 操作ログ
- 所属企業名
- 従業員情報
- 公開情報
などになってくると、段々人によって該非の結論がブレてきます。が、個人情報に該当するか一瞬悩むような情報は、大抵の場合個人情報に該当していますきっと。
Q:個人情報の定義を一言でわかりやすくいうと?
と問われたら、(例外が存在することに目を瞑り)私はよく
A:ユーザーIDに紐づけている全ての情報
と答えています。もう少しちゃんと理解したいよ、という方はこちらの過去セミナー資料のP.35〜をご覧ください。
3.守れないルールほど邪悪なものはない
やや同語反復的ですが、「ルールは守られることで初めてルールとしての意味を持つ」と私は考えます。例えば「厳しすぎて守れないようなルールは、逆に抜け道を誘発してしまい適切でない」という話は、セキュリティの観点からも語られることがありますよね。
それではここで、個人情報保護法の観点からの話として「個人情報の定義に対する誤解を前提としたルール(=皆が実際には個人情報をAIに入力してしまっているにも関わらず、個人情報の入力を禁止するルール)を定めているケース」を考えてみましょう。
このようなルールを会社として許容していると、せっかく個人情報の定義を正しく理解し始めてくれていた人達が「あれ、やっぱり自分の理解って厳しすぎたのかな?」と悩んでしまい、企業としての個人情報の定義の正しい理解は一層遠のきます。
こうして個人情報の定義を多くの人が誤解した会社では、いつか来るインシデント対応の時に地獄を見ます。いつまで経っても漏えいした個人情報(個人データ)の範囲が確定できず、5日の速報提出期限を前に報告内容が二転三転し、文字通り眠れない夜を過ごすのです(いくつかの企業にとっては実話のはずです)。
やはり、守れないルールほど邪悪なものはありません。
4.「個人情報」の入力が可能なように法的に整理
外部のAIサービスに対して個人情報(個人データ)を入力する上で個人情報保護法の観点からチェックすべきは、単純化すれば多くの企業 / 多くのAIサービスにとって以下の3点です。
- 委託の範囲内か(27条5項1号)
- 委託先の監督ができるか(25条)
- 基準適合体制の整備ができるか(28条1項)
(1) 委託の範囲内か(27条5項1号)
AIサービス側に個人データを渡す場合、その提供の法的な根拠としては(一応)以下が有り得ます。
- ①第三者提供
- ②委託
- ③クラウド例外(注意喚起のAI例外)
議論が細かくなるので、ここでは一旦③は採用し得ないという立場を取ります。その上で、提供の根拠として①第三者提供を採用する場合、原則として本人の同意が必要になるので、こちらも避けたいということになります。
①第三者提供ではなく②委託であると整理するためには、当該提供が委託の範囲内であることが必要です。AI利用の場面では、とりわけ提供データが委託の範囲を超えて、AIサービス側の独自目的で利用されないかのチェックが必要になるでしょう。
「AIサービス側の独自目的」については、利用するAIサービスの提供とは無関係に学習に利用されないかなどを確認します。学習オフやゼロリテンションのオプションが提供されているかを確認してください。
なお、学習利用があったとしても委託の範囲内として許される場合があることについては、前回のこちらのブログをご覧ください。
(2)委託先の監督ができるか(25条)
(1)で検討した通り提供の根拠として「委託」を採用する場合、委託先の監督を行う義務が生じます。委託先の監督として実施すべきは3点で、ガイドラインには以下のような記載があります。

(出所:個人情報の保護に関する法律についてのガイドライン(通則編))
ここで多くの企業が実施する中心的な作業は、AIサービス側が提供しているDPA(Data Processing Agreement, Data Processing Addendum)等が、10((別添)講ずべき安全管理措置の内容)の要件を充足しているかのチェックです。
DPAってなんだ?とか、実際のDPAのチェックの流れは以下の過去セミナー資料のP.97から解説しているので宜しければご確認ください。
(3)基準適合体制の整備ができるか(28条1項)
AIサービスを提供しているのが外国の事業者の場合、いわゆる越境移転のチェックも必要になります。越境移転の方法は28条においていくつか認められていますが、多くの企業は基準適合体制の整備を選択しています。
先ほどと同じく、細かい部分を置いて中心となるところについて述べると、こちらもDPA等が法第4章第2節の規定の趣旨に沿った措置の要件を充足しているかをチェックします。

実際のDPAのチェックの流れはこちらについても、先ほどのセミナー資料のP.192から解説しているので宜しければご確認ください。
5.ハイリスクだと考える一定の情報を制限
以上、いくつか省略したプロセスもありますが、この辺りをクリアすれば個人情報保護法上は「当該AIサービスに対しては」個人データを入力することが法的には可能になります。
その上で、社内ルール・ポリシーとして「それでもこの情報はAIサービスに入力するべきではない」と制限することはあり得ます。例えば個人情報の観点からは…
- Level 3:要配慮個人情報、センシティブ情報
- AIサービスへの入力禁止
- Level 2:単独で特定個人識別性を持つ個人データ(=氏名など)
- AIサービスへの入力原則禁止(入力の必要性が認められ、追加のリスク軽減策をする場合には個別的に許容)
- Level 1:単独で特定個人識別性を持たない個人データ、非個人データ
- AIサービスへの入力許容
みたいなグラデーションをつけることは、企業の価値判断の下であるかもしれません。
なお逆説的ですが、誤った個人情報の定義(=氏名や住所だけが個人情報との理解)に基づいたルールも、上記Level 2の入力を禁止するという意味では役に立っている部分もあるとは思います*1。
6.もう少し詳しく知りたい!
以上、生成AI利用についての個人情報保護法観点からの説明でした。
この記事を読んで、もう少しちゃんと個人情報保護法を知りたいと思われた方。
4/3(金) 12:00-13:30に 「いまさら聞けない法務の基本」のタイトルでセミナーをやります。無料ですし、アーカイブ配信もあります。宜しければこちらもご応募ください、万全の準備をしてお待ちしております🙏
*1:それでもなお、「3.守れないルールほど邪悪なものはない?」に記載した副作用があることから、私は「AIへの個人情報の入力は禁止」というルールの設定には反対します