ハルシネーションとは、AIが事実と異なる情報をまるで正しいかのように生成してしまう現象で、日本語では「幻覚」や「妄想」とも訳されます。
主な原因は、学習データの誤りや不足、偏り、またはAIモデル自身の推測によるものです。たとえば、存在しない情報や出典を自信満々に提示してしまうケースがあり、一見すると正確な回答に見えるため、気づきにくいという危険性があります。
AIの利便性が高まる一方で、ハルシネーションはビジネスや医療・法律などの重要な場面において、誤った意思決定につながるリスクをはらんでいます。
そのため、AIの回答をそのまま鵜呑みにせず、必ずファクトチェックを行う習慣が重要です。AIはあくまでサポートツールとして活用することが求められます。
生成AIにおいて、もっともらしいが事実とは異なる内容が出力されることを表す用語として、最も適切なものはどれか。
| ア | エコーチェンバー |
| イ | シンギュラリティ |
| ウ | ディープフェイク | エ | ハルシネーション |
答え:エ
「生成AIにおいて、もっともらしいが事実とは異なる内容が出力される」とあるので、事実とは異なる情報を生成する現象である、ハルシネーションが適切です。エコーチェンバー:SNSなどにおいて、同じような興味関心、価値観をもつユーザー同士でフォローしあった結果、自分が意見を発信した際に、同じような意見(自分に都合がいい意見)がばかりが返ってくる現象。シンギュラリティ:人工知能(AI)が、人間の知能を超える転換点を指す言葉。ウ:AIの技術を悪用し、実際の映像、音声、画像に偽の情報を組み込み、あたかも本物のように製作することや、そのようにして作られた映像、音声、画像を指します。