OpenAIは9月5日(米国時間)、「Why language models hallucinate | OpenAI」において、言語モデルがハルシネーション(誤情報の生成)を引き起こす理由を解説した。言語モデルに対する一般的な主張と研究によって明らかになった事実を比較し、精度の向上には限界があること、そしてハルシネーションの回避は不可能ではないことを伝えている。Why language models hallucinate | OpenAI○ハルシネーションを引き起こす理由現在の言語