以下の内容はhttps://www.naka2656-b.site/tag/OpenAIより取得しました。


Screenshot_20250811-155615
1.はじめに
米OpenAIは8月7日、生成AIのChatGPTについて、これまでのGPT-4oに代えて、次世代AIモデル「GPT-5」をリリースしました。同社によると、GPT-5は “博士並みの知能持つ友人”であるそうです。ところが興味深いことに、ネット上では多くのユーザーから「私の家族・友人の4oを返してほしい」という趣旨の意見が多く見られています( #keep4o )。
・ChatGPTに「4o」を返して--「keep4o」運動が話題 新モデル不評? アルトマン氏も対応表明|CNET Japan

2.生成AIは「個人の自律」や「自己決定」を阻害するのではないか?
この、#keep4o の動きは、GPT-5に比べてGPT-4oの方が、ユーザーの問いかけに対してより親切・丁寧に人間的な対応をしてくれるのでGPT-4oを返してほしいというもののようですが、例えば憲法的に考えるなら、「AI依存は個人の自律や自己決定を阻害するのではないか」という問題があるように思えます。

ChatGPTやCopilotなどの生成AIが優秀で親切な24時間対応してくれる相談役・カウンセラーになればなるほど、私達人間は、思考や判断の一部を生成AIに委ねるようになると思われます。これは一見すると人間の能力の拡張であるようでいて、その一方で、憲法が重視する「個人の自律」や「自己決定」との関係で問題をはらんでいるように思えます。

3.松尾剛行『生成AIの法律実務』
この点、AIに詳しい弁護士の松尾剛行先生の『生成AIの法律実務』(2025年)220頁以下は、まず、例えば日々の食事のメニューなどのルーティン的自己決定を生成AIに委ねることは、人間を日々のルーティンワークから解放し、より質の高い生活を実現させる可能性がある一方で、例えばそれがスーパーマーケット等の事業者のステルスマーケティング的な宣伝活動に乗っ取られてしまう危険(第三者の誘導の危険)があることを論じています。

さらに同書は、日々のルーティンワーク的な自己決定でなく、自分がどのような職業に就くのか、どのような人生の道を選択するのか等の、重要な自己決定を生成AIに委ねることについては、「重要な自己決定をすべてAIに委ねる人間が果たして<自律的な個人>といえるのか、という点は今後重要な問題となり得るだろう」と指摘しています。

4.個人の自律・自己決定・民主主義
憲法13条は、「すべて国民は、個人として尊重される。生命、自由及び幸福追求に対する国民の権利については、公共の福祉に反しない限り、立法その他の国政の上で、最大の尊重を必要とする。」と規定しており、「個人の尊重」と「幸福追求権」は非常に重要な人格的利益です。

ところが人々が、生成AIに何でもかんでも頼るようになってしまったら、個人が自己の価値判断を行う場が減少し、憲法的に保障されるべき個人の「人格的自律」が形骸化してしまうおそれがあります。また、さまざまな選択肢があるのに実質的には生成AIが回答する方向に人間が流されることは、実質的な自己決定の行使とは言えないという問題もあります。

さらに、これが私的な自己決定ではなく、選挙・投票などに関する判断や選択であった場合、これは生成AIによる民主主義・国民主権の乗っ取りや形骸化などの危険があるということになるのではないでしょうか。

5.まとめ
このように、少し想像をたくましくして考えてみると、生成AIがどんどん便利で優秀に人間的になり、人間がそれに頼るようになると、個人の自律、自己決定や、果ては民主主義との関係で問題が発生してしまうように思われます。

2019年に内閣府が公表した「人間中心のAI社会原則」は、①人間の尊厳が尊重される社会、②多様な背景を持つ人々が多様な幸せを追求できる社会、③持続性ある社会、の3つの基本理念を掲げていますが、今回のGPT-4oの問題は、そのうちの①の理念が早くも阻害されるおそれが顕在化しているのではないでしょうか。

生成AIを研究開発する企業や、各種のAIサービスを提供する企業、そして生成AIを利用する我々エンドユーザーは、これらのリスクを視野にいれて行動する必要があるのかもしれません。

人気ブログランキング

ai_search
2025年4月11日のCNET Japanの記事によると、「ChatGPTを提供するOpenAIは4月11日、有料の「Plus」「Pro」プランでメモリ機能を強化し、過去の会話をすべて参照できるようにしたと発表した。これにより、より適切で有用なパーソナライズされた回答を提供できるようになる」とのことです。

これは「メモリ機能のオン・オフはユーザーが設定できる。「保存されたメモリを参照する」をオンにすれば、ユーザーの名前や好みなど、過去に保存した情報を参照するようになる。これは、ユーザーが明示的にChatGPTに伝えたとき、あるいはChatGPTが特に有用と判断した場合に、メモリに情報を追加する仕組みだ。チャット履歴を参照する設定をオンにすれば、ChatGPTは過去の会話にある情報を参照し、ユーザーの目標や興味、トーンなどに合わせて会話を進める。こちらはより広範囲に及ぶ設定だ。」という改正であるそうです。

この改正についてX(Twitter)では、「ChatGPTによるプロファイリングの精度があがっている」等の声があがっています。ある方のXの投稿では、ChatGPTに推測させてみたところ、「所属する業界、職業、年収、性別、年齢層、居住地、血液型、家族構成、MBTI診断結果などを当てられた」とのことで、これはなかなかゾッとするというか、恐ろしいものがあります。

この点、Xで、sabakichi(@knshtyk)氏は、「今回のアプデで気が付かされたが、個人のやり取りから学習した特徴のデータというのは要するに"究極の個人情報"であるから、将来的に法的に保護されるべき「個人情報」が指す範囲は今後拡張されていく必要があり、データの生殺与奪の権も利用先の制御もすべてユーザの手元で行える必要が出てくるのでは」と投稿していますが、この点は私も非常に同感です。

さばきち01
(sabakichi(@knshtyk)氏の投稿より)

最近、個人情報保護法については、「個情法の保護法益は何か?」という点について議論があるところです。これまで自己情報コントロール権(情報自己決定権)説が有力であったところ、最近は曽我部真裕教授などによる「自己の情報を適切に取扱われる権利説」や、高木浩光氏による「個人データによる個人の不当な選別・差別の防止説」が有力に主張されています。

しかし最近のChatGPTの猛烈な進化をみると、状況は今後変わってゆくのではないでしょうか。つまり、生成AIなどにより、どんどん個人の内心やプライバシーが緻密にプロファイリングされてしまう状況になり、その機微な情報をOpenAIなどのIT企業が収集・保管・利用するようになる、ビッグテック企業等がどんどん個人の内心やプライバシー、アイデンティティの部分に踏み込んでくると、「自己の個人情報が適切に取扱われる」ことや、「個人データによる個人の不当な選別・差別の防止」が達成されるだけでは不十分であり、sabakichi氏が上で投稿しているように、自己の個人情報・個人データの取扱いについて、個人がコントロールする必要性がより増加してくるのではないでしょうか。

すなわち、曽我部説や高木説に立つと、OpenAIなどのIT企業から「いやいや貴方の個人データはプライバシーポリシーで通知・公表した内容にしたがって適切に処理しています。もちろん不当な選別・差別は行っていません。なので、貴方の個人データをますますプロファイリングに利活用させていただきます」と言われたときに、個人の側としては何の反論もできなくなってしまうわけですが、ChatGPTなどの生成AIがどんどん進歩してゆく今日においては、そのような状況では個人の人間としての存立が危うくなってしまうのではないでしょうか。そのような状況においては、個人としては、自己の情報・データについて、収集したデータをこれ以上勝手に処理・プロファイリングするな、収集・利用・プロファイリングしたデータの利用を停止せよ・データを削除せよ等と主張することが、個人の尊厳、個人の尊重、個人の人格尊重(憲法13条、個情法3条)の保護のためにますます必要となってくるのではないでしょうか。

そのように考えると、生成AIの発展する今日においては、個情法の保護法益としては、「自己の情報を適切に取扱われる権利説」の側面や、「個人データによる個人の不当な選別・差別の防止説」の側面ももちろん重要ではありますが、それと同時に自己情報コントロール権(情報自己決定権)説の側面の重要性も増加しているように思われます。

人気ブログランキング




以上の内容はhttps://www.naka2656-b.site/tag/OpenAIより取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14