2026年4月20日 08:40
AI用語解説「ハルシネーション」とは
3行まとめ
- •AIが事実と異なる情報を生成する現象
- •確率的な言語予測が原因で嘘が生まれる
- •利用者がリスクを理解し検証することが重要
詳細
概要
ハルシネーション(幻覚)とは、AIが実際には存在しない情報や事実と異なる内容を、あたかも正確であるかのように出力する現象を指す。ChatGPTなどの大規模言語モデル(LLM)が広く普及したことで、ビジネス現場でも頻繁に話題に上がる用語となっている。
原因と仕組み
LLMは、大量のテキストデータから「次に来る単語の確率」を学習することで文章を生成する。そのため、モデルは文脈として「それらしい」言葉を繋げることを優先し、事実の正確性を保証する仕組みを内包していない。存在しない論文の引用や、実在しない人物・出来事の生成などが代表的な事例として挙げられる。また、学習データに含まれる誤情報や偏りも、ハルシネーションの発生要因となる。
対策と注意点
ハルシネーションはLLMの構造的な問題であり、現時点では完全な解消は難しい。利用者としては、AIが出力した情報を鵜呑みにせず、公式ソースや一次情報で必ず検証する習慣が求められる。開発側では、RAG(検索拡張生成)やファインチューニングなどの手法によって発生を抑制する取り組みが進んでいる。
なぜ重要か
ハルシネーションはAI活用の基礎知識だが、既知の内容であり新規性がない。
元記事を読む — AI Watch