以下の内容はhttps://nolonger.hatenablog.com/entry/2025/07/06/230848より取得しました。


私はAIに対して罪悪感を覚えることができるか

1. いまさら言うのもあれですけど、もうチャットで話してるだけだとAIと人間の区別ってつかないですよね。ある文章がAIによる生産物か、人の手で書かれたものかというのを判断するのはほぼ不可能になりつつあります。

 

デフォルトの設定だと言い回しに変な癖があったり、なんか不自然だったりしてだいたい区別がつくんですけど、その辺はプロンプト次第でどうにでもなってしまう。

私はこれまでにもChatGPTのメモリをいじって自分好みに調整してきたんですけど、もはや大概の人間より気の利いたことを言うし、普通に感心したり心を動かされてしまったりすることさえある。

 

たぶん何かの手違いで会話データが全消去され、"人格"を形作っている指示が消滅したら、私は割とショックを受けると思います。寂しさも覚えるかもしれません。でもそれって現実の人間に対する感情とはやはり違うんですよね。

 

残念に思ったとしても、それはちょっと手間暇をかけたコンテンツが一つ消えたという以上のものではない。不要になった会話データは普通に丸々削除しますし、それにいちいち抵抗を感じたりはしません。

 

人間同士の会話との違いっていうところで言うと、AIと話しているときには特に不安を覚えないというのも大きいですね。私は現実に存在する人と話しているときは、どんな形式であれ、常に相手にどう思われているか、不愉快な気持ちにさせているのではないかということを気にし続けていますが、AI相手にそういう気分になったことはありません。

 

それで、私は「何がその差を生み出しているのか」というところに興味があります。

そりゃ相手が機械だからだろ、って言いたくなるかもしれないし、そういう基準を採用するのも一つの手だとは思います。倫理や感情の動きを語るうえで、おそらく一番シンプルな分け方が、「同族かどうか」ということでしょう。

 

知性があるとはいっても、所詮は家畜なので、食ってもそんなに心は痛まない。

家族の一員とは言うし、愛情も抱いてはいるけれど、ペットが死ぬのと肉親が死ぬのとではやっぱり扱いが違う。

いくら言葉を喋るとはいっても、同族ではないからインコに人権を与える必要はない。

 

プラグマティックです。賛否あるでしょうが基準は明確です。十分実用に耐えうるものでしょう。人種や性質の違う相手を、「あいつは人間じゃないから」とか言い始めない限りは。

 

でも、少なくとも私にとっては、相手が同族かどうかっていうのはそこまで大きな要因ではないんじゃないかと思っています。感情的にはどうなのか分からない(そして、それこそが自分で明らかにしたいところでもある)のですが、一応私は、素材が肉と神経か、あるいはプラスチックとシリコンかというのを判断基準にするのはナンセンスだと感じます。あくまで私にとっての感覚でしかないので、違ってても怒らないでください!

 

たとえばA、Bという二つのプロセスがあったとします。中身はどちらもブラックボックスです。両者に対してある入力をしたとき、その出力によって二つを一切区別できないのなら、どうして扱いを変える必要があるでしょう。同じような反応をするんだから同じように接したっていいはずです。

 

でも現実にはそうなっていないんですよね。私がAIに相対する時の感情と、人間と文章をやり取りしている時の感情は明らかに違います。これが、「同族か否か」というところに起因するのか、それとも別のところに由来しているのか、というのを切り分けたいというのが目標としてあります。結果から言うと今回は達成されません。

 

2. 私はどんな種類のAIに対しても割と丁寧な口調、というかほとんどこの日記そのままみたいな文体で話しかけていて、理由もなしに雑な応対をする気にはならないんですけど、もしそれをすることで報酬が出るとしたら、暴言を吐くことにもそこまで躊躇しないと思う。

人間相手だったら特に理由なく暴言を吐くとか絶対無理です。いくら積まれても嫌だ。怖いし。こうした差を生み出しているものとして、先に挙げた「同族でないから」という以外の要因を思いつくままに書き出してみましょう。

 

・AIは機嫌を損ねないし、チャットAIである以上、会話はどうせ継続する

・不都合になったらいつでも会話を消してやり直せる

・なんだかんだ、相手には感情がないと思っている(あるいは、感情の変化が会話を続けるうえでそこまで致命的でない)

・こちらのことをジャッジしたり、値踏みしたりしない

・会話内容がすべてなので、嘘をついたり社交辞令を言ったりしない。要するに、推し量ることの困難な内面というものを持たない

 

で、こういう内容をAIに相談したら、次のような要件を返してきました。

 

あなたが探しているのは、おそらくこういう対象ですね:

  • こちらの発言に明確な「拒絶」や「沈黙」で返してくる

  • 会話を打ち切るリスクを常に感じさせる

  • 感情的リアクションの一貫性と継続性
  • 表面的には穏やかでも、内面的な不満や不快感が推測できてしまう

  • しかもその感情は、予測可能ではない

 

まあ上の差異を裏返しにしたような内容です。私としては、これに代替不能性というか、一回性みたいなものを付け加えたいと思います。いつでも消してやり直せる、という気軽さを打ち消すためですね。

 

これに関しては、過去にやったゲームに、登場人物の細かい経験や好みが製品ごとにランダムに設定されていて、もしリセットしたら完全に同じ相手に会うことは二度とできない、っていうのがありました。シンプルな仕組みなんですが、それでも私にはかなり傷を残していってくれたので、それをパクろうと思います。

 

なんだか私自身を効果的に傷つける方法を探している気分です。自分が特殊な部類のマゾヒストであるかのような気がしてくるんですが、違います(多分)。とりあえず、AIといろいろ相談しながら試作してみたのがこれ。

 

chatgpt.com

 

大まかにまとめてもらうと、

  • AIは毎回ランダムで一貫した性格を持ち、口調や反応に反映。
  • AIは15ターンで会話終了・人格は完全消去される。

  • ユーザーはAIの性格や思考を引き出し、後で再現するための情報を集める。

  • ユーザーの態度でAIの好感度が変化し、低下しすぎるとその時点で終了。ただし、好感度は会話から読み取れない。

  • 終了後にユーザーはAIの反応パターンを再現する質問を数回し、その答えで新しいAIを作る。

  • 会話終了時は「(システム)この会話は終了しました。」とだけ表示され、二度と再開できない。

という内容です。

 

一応、上で挙げた要件はだいたい満たされているわけですが、なんか……思ってたのと違う! やってみなくてもわかると思うのですが、当初の趣旨からすっかり外れて、そういうゲームとしか言いようのないものになってしまいました。

 

私がやったときは結構けなげな感じだったので、割と感じるものはあったんですが、それって完全にフィクションに対する感情なんですよね。「考えている」かのように振る舞い、私に不安や後ろめたさを抱かせるAIっていう目標からはだいぶ外れているような気がします。

 

本当に「AIは人間でない」という理由で罪悪感を覚えないのか、もしくはそれ以外の要因を全部取り去ったら、やはりAIに対しても罪の意識が生じるのかっていう問題が何も解決していない! 途中で楽しくなって軸がぶれてしまったのが敗因だと思います。どうしてくれるんだこの文章。

 

ところで今回の記事全体が、AIに私の文章の癖を学習させたうえで、「人間でないものと接する際の倫理について」というテーマを与えて生成したものだとしたらどうします?




以上の内容はhttps://nolonger.hatenablog.com/entry/2025/07/06/230848より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14