以下の内容はhttps://joisino.hatenablog.com/entry/cognitionより取得しました。


LLMと言葉の「感じ方」

認知意味論 (cognitive semantics) は、言葉の意味を人間の認識や感じ方と関連付けて理解する言語学のアプローチです。本稿では、認知意味論の考え方をもとにした「LLM の認知」についてお話します。

認知意味論の背景にはゲシュタルト心理学 (Gestalt psychology) や認知心理学 (cognitive psychology) などがあります。以下のようなだまし絵を見たことはないでしょうか。

ルビンの壺 (CC BY-SA)

これはルビンの壺 (Rubin's vase) というだまし絵で、壺のようにも、向かい合った人のようにも見えます。

だまし絵は、全く同じ一枚の画像ですが、その日の体調によって、いや、一瞬一瞬によってすら、全く異なる「意味」を持って認識されます。二人が同時に全く同じ画像を見ていても、一方は「これは壺だ」と思い、もう一方は「これは向かい合った人だ」と捉えていることがあり得ます。つまり、画像自体に一つの意味が内在しているのではなく、受け手の認知の仕方によって意味が定義されます。

このような現象は言語でも発生します。例えば落語『動物園』を少し改変した以下のテキストを考えてみましょう。

異様に時給が高いサーカスのバイトがあったので、お金に困っていた私は応募しました。

当日、会場に到着すると強引に檻の中に閉じ込められました。

檻の中にはライオンがいました。

ライオンは不機嫌な様子でゆっくりとこちらに近づいてきて、口を開けました。

落ち着け、俺もバイトや、と。

このテキストの認識はオチゼリフの前後で大きく転換します。直前、ライオンが「口を開け」たのは語り手を食べるためかと思いますが、オチゼリフを発するためだということが種明かしされます。もう一度読み返すと、ライオンが不機嫌な様子だったのは、腹を空かしていたわけではなく、ライオンも強引に檻に閉じ込められたからではないか、というような、初見とは別の認識も生まれます。また、このライオンが実は着ぐるみを被ったオッサンであることが原作ではもう少し丁寧に種明かしされますが、この改変テキストでは着ぐるみだったという現実的な設定と、喋れるライオンだったというファンタジーな設定のどちらの認識でも読むことが可能です。この点は冒頭のだまし絵と構造が似ています。

インターネットでよく見る「意味が分かると怖い話」や、世界最短の小説として知られる「売ります。赤ん坊の靴。未使用」なども、読むにつれて認識が変わるテキストの好例でしょう。

このように、テキストはそれ自体に一つの意味があるのではなく、全く同じテキスト、全く同じ文字列でも受け手の認知によって異なる意味を、時には正反対の意味すら持つことがあります。

認知意味論はこれらの例のように、言葉の意味を、人間の認識・感じ方によって理解するという立場を取ります。

認知意味論を構成する代表的な考え方がプロトタイプ意味論 (prototype semantics) です。プロトタイプ意味論では、あるカテゴリーの構成員には典型的な例、すなわちプロトタイプと、非典型的な例が存在すると考えます。

例えば、鳥類というカテゴリーを考えたとき、スズメも、ウグイスも、ダチョウも、ペンギンも、どれも鳥類であることは間違いありません。しかし、人間はスズメやウグイスを典型的な鳥と感じ、ダチョウやペンギンを非典型的と感じる傾向があります。

このことは言語の使用にも影響を与えます。

例えば、「神様、私の来世は鳥にしてください――」と願い、来世がダチョウだったらどうでしょうか。いや、確かに鳥類だけども、飛べないし、なんかずんぐりしてるし、思っていたのと違うと感じるのではないでしょうか。

ここでいう「鳥」とはウグイスのような小鳥か、あるいは白鳥のように優雅に空を舞える鳥を想定しているはずです。同じ言語感覚を共有しているグループであればそれは伝わるはずであり、実際に伝わると考えてこのような発話をしたはずです。このとき、ウグイスや白鳥がこの概念のプロトタイプとなります。しかし、神様はこの言語感覚を理解してくれておらず、「鳥だったら何でもいいのかな……そうだ、せっかくだからなるべく大きい鳥にしてあげちゃおう」と余計なおせっかいでダチョウにさせられたわけです。

ヤン・ルカンらのグループによる研究 From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning (ICLR 2026) はこのプロトタイプ意味論に基づいて、LLM と人間の概念の「感じ方」の違いを明らかにしています。

この研究の対象は LLM の埋め込み表現です。雑にいえば、LLM が頭の中でどう考えているかを調べる、と言ってもいいでしょう。つまり LLM にインタビューをして感じ方を答えさせたのではなく、内部でどのような動きをしているかに焦点を当てて研究しています。LLM の埋め込み表現イコール LLM の「感じ方」とまで言うのは飛躍がありますが、認知意味論を踏まえて、そのようなイメージを持っておくと理解がしやすいかと思います。

まず、LLM の埋め込みは人間と同じようなカテゴリー分類をしていることが分かりました。スズメ、ニワトリ、ダチョウ、ペンギンのような単語や、椅子、ドレスなどの単語の埋め込みを調べると、鳥類は鳥類で、家具は家具で、衣服は衣服はっきりまとまっていました。この観点において LLM の物事の捉え方は人間と整合的です。

しかし、LLM の埋め込みは何を典型的とみなすかにおいて人間と大きく異なっていました。鳥類を例にとると、まず人間に各鳥の典型度合いをアンケートで答えてもらいます。すると

1. ウグイス
2. スズメ
3. インコ
...
9. ペリカン
10. ダチョウ
11. ペンギン

のような人間が典型的と思う鳥のランキングが得られます。

続いて LLM の埋め込みをもとに、「鳥」の埋め込みと各鳥、例えば「ペンギン」の埋め込みのコサイン類似度  \text{cos}(E_{\text{bird}}, E_{\text{penguin}}) を求め、この類似度の高い順に、つまり「鳥」そのものと似ていると LLM が考えている順にランキングしました。

このときの人間によるランキングと LLM によるランキングの順位相関係数はわずか 0.15 以下でした。つまり、何を典型的な鳥とみなすかで人間と LLM は大きく異なっていました。

このような結果になる原因については完全には明らかになっていませんが、非典型的な鳥ほどあえて鳥であることが名言されて共起しやすいということが一因と考えられます。例えば、「ペンギンって鳥なんだよ」とは言いますが、「ウグイスって鳥なんだよ」とはわざわざ言わないでしょう。このようなテキストデータの偏りのために非典型的な鳥の埋め込みが鳥に近づいた可能性があります。

論文で考察されているのは、訓練目的に起因するという仮説です。LLM は次トークン予測で訓練されています。次トークン予測の目的は埋め込み表現を整えることではなく、次のトークンを予測することだけなので、この二つの目的がたまたま整合するとは限りません。実際、word2vec のような表現学習を目的としたモデルは人間との順位相関係数は 0.3 から 0.4 と比較的高く、トランスフォーマー型のモデルの中でも BERT のような表現学習モデルは比較的順位相関係数が高い傾向がありました。次トークン予測で訓練したモデルの中では、モデルサイズや能力を高くすればするほど表現が人間と整合するようになる訳ではなく、むしろ高くするほど人間から乖離する場合すら観測されました。たしかに、モデルのデコーディング能力が極めて高いと、内部で複雑に絡みあった表現をしていても、摩訶不思議な方法で次のトークンを予測することができるかもしれません。極めて能力の高いモデルにとっては、人間の感覚に沿った表現を用いるということが足枷になる可能性すらあります。

このように LLM と人間の間で概念の捉え方が異なるためにいくつかの問題が生じます。

第一に、LLM の捉え方の傾向が我々人間と異なるために、我々が言外に表現したニュアンスを LLM はうまく捉えてくれないかもしれません。例えば、LLM に「私を鳥に変身させてください――」と頼むと、ダチョウに変身させられるかもしれません。これについて抗議すると、LLM は「ダチョウは鳥類の一種なので間違いではありません」と言い訳するかもしれません。このような感覚のズレた相手と一緒に仕事をしたくないでしょう。

第二に、LLM の不可思議な表現は、LLM の望ましくない振る舞いや弱点の原因となる可能性があります。例えば、言語モデルの物理学 - ジョイジョイジョイ でも紹介した通り、LLM は順方向について予測をすることは得意ですが、逆方向について予測することが苦手です。ジェーン・オースティン『高慢と偏見』の一節を取り出し、この次の文は?と GPT-4 に聞くと 65.9% の精度で正答しますが、この前の文は?と聞くと、 0.8% の確率でしか正答できません。このように事前訓練で入力される順番が常に固定されているテキストにおいては、正答率に激しい非対称性が現れます。この現象は人間でも見られます。例えば「L」の次のアルファベットは分かるでしょうか?多くの人は「M」「N」「O」「P」と続けられるかと思います。一方、「L」の前のアルファベットを順番に遡っていこうとしても、「A」「B」「C」... から言ってみないと分からない人が多いのではないでしょうか。これはアルファベットについては人間も前から後ろの方向の形ばかりで遭遇することが多いことが一因です。人間も同じならばよいではないかと思うかもしれませんが、人間はこのような一部の例でのみこの現象が起こるのに対し、LLM は基本的に「次トークン予測」でしか訓練されていないので、あらゆる場面でこのような現象が生じます。LLM の不可思議な表現は「次トークン予測」のために極限まで最適化されており、たしかに「次トークン予測」の精度を高められるかもしれませんが、最適化しすぎた結果、逆方向に答えるなどの他の基本的なタスクの能力が失われてしまう可能性があります。事前学習においてこのような表現を学習してしまうと、後のファインチューニングで対応しようとしても修正するのが難しいかもしれません。このような問題意識は LLM コミュニティーの中にもあり、例えばこの非対称性の問題を解決するために対照学習のような表現学習を取り入れる提案などがなされています [Wang+ ICLR 2026]。

おわりに

LLM は「言語」モデルなので、テキストしか扱うことができず、そのために人間の認知や感じ方といったテキストの外側にある要素について訓練したり、理解させるのが難しいと考えられてきました。

しかし、認知意味論は認知と言語の橋渡しができます。LLM と認知意味論を組み合わせる探求はまだはじまったばかりですが、認知意味論のアプローチを活用することで、LLM の言語に対する「感じ方」を理解したり、LLM にもっと人間らしい「感じ方」を教えることが可能になるかもしれません。

皆さんも現状の LLM が言外の意味をうまく汲み取ってくれないと感じたことはないでしょうか。本稿が LLM の言葉の認識の仕方について考えるきっかけになれば幸いです。

謝辞:認知意味論については昨年の人工知能学会にて国語研の横井祥先生にご紹介いただきました。ここにお礼申し上げます。

著者情報

この記事がためになった・面白かったと思った方は SNS などで感想いただけると嬉しいです。

新着記事やスライドは @joisino_ (Twitter) にて発信しています。ぜひフォローしてくださいね。

佐藤 竜馬

佐藤 竜馬(さとう りょうま)

京都大学情報学研究科博士課程修了。博士(情報学)。現在、国立情報学研究所助教。著書に『』『』『最適輸送の理論とアルゴリズム』がある。

プロフィールを見る




以上の内容はhttps://joisino.hatenablog.com/entry/cognitionより取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14