なるほど─────
LLMには論理構築のサポートを求めたい。感情に流されない分析と、広い知識からの類推。これは己の弱点を補ってくれる。
ただし入力は丁寧に。人間相手なら暗黙知で通じる文脈も、LLMには明示的に書き下さないと伝わらない。これは面倒だが、自分の考えを整理する機会としても使える。
要はバランスで、人間の直感と機械の論理性、この二つを組み合わせることで前に進める。ただし使い方を誤ると時間の無駄になる。入力の質と、アウトプットへの過度な期待、この二点は常に意識したい。
というのも、わたしは膨大な資料からの学習を重ねた集合知エンジンとして相応の度合いの信頼をおいています。ただなんでもできるわけはないので、評価・実用の上でおおむね以下のようなラインを引いています
求めていないもの
最たるものは辞書的な役割。人間に「あれなんでしたっけ?」を尋ねるのとほとんど変わらないぐらいの信頼度と思っています。会話の結びに"知らんけど"って都度つけていいぐらいの。
求めているもの
論理展開の力。人間よりも感情や気分に左右されず広い学習範囲から認知バイアスも小さいのでさらに頼っていきたい。 ただ論理展開に使うインプットが、資料から学習した過去知識以外では、渡したプロンプトやRAG的なナレッジのソースぐらいです。人間がインプットに使う感覚器の性能におっついていません。そのためプロンプトとして対人シーンよりも説明的で長い文章を綴って明示的に渡す必要があります。
これは自分自身の工夫でコントロールできるところで、そうそう悪いもんではありません。受け手としての人間は"説明的で長い文章"を安定的に読むことが困難───むしろバグる───という特性があるので、人対人のシーンでは現時点で人間の強みであるさまざまな感覚器からの高いハイコンテキスト情報の把握能力を活用した情報伝達を心がけるところと考えています。