今日興味深い話題があったのでメモ
最近、なんでもかんでもChatGPTやら他のLLMに聞くことが多くなったけど、 圧倒的に情報収集の速度や効率が上がった一方、 この状態でさらにLLMがもっと賢くなった時に、それを使うユーザ(私)が考えなくなる からアホになる、これからもっとアホになるんじゃないか、という話をした。
そうしたら、
「そうは思わない、例えば経営者はたくさんの部下から大量の情報を集めるが、その情報を元に判断する。 頭を使う場所が変わるだけ。」
という反論があった。
なるほどそれは確かにそれはその通りで、 集められる情報の質が変わっただけで、それを元に判断すれば変わらない。
過去のプログラミングの時流の大きな変化(パラダイムシフト?)に合わせて考えてみると、 昔アセンブリが主流だった頃に、高水準言語のコンパイラが出現して、多くのプログラマがコンパイラを使うようになったときに、 コンパイラを使うようになったエンジニアはアセンブリエンジニアに比べてアホになったのか、と言う比較と類似したものがあるのかもしれない。
このような比較をベースにすれば確かにアホにならないんじゃないかという気もする。 が、個人的な今の感覚で言うとアホになっている傾向があると感じる。それはどこから来るんだろう。
今思うところとしては、結局今のLLMの応答がそれっぽい内容すぎて(そしてそれは大抵の場合当たっている) 内容をちゃんと咀嚼しなくても、問題なく進めてしまっているから、短期的な効率としては、そのまま受け入れる方が良いと言う行動になってしまっているからな気がする。
今までは検索エンジンで情報検索したときに、適当なSEO記事が書いたような内容は自分で取捨選択していたが、 LLMが提示したもっともらしい回答はそれを受け入れてしまう(自分が咀嚼、反論できない)。
そう考えると、LLMを使うからアホになると言うより、自分が元々アホで今まで検索エンジン程度で得られる情報は良し悪しを判断できたが、LLM様の賢い出力は判断ができていない、と言うだけな気もしてきた。
アホになるのではなくて、もともと自分がアホなのが露呈しただけだった。