Glossary · AI技術

ハルシネーションとは?

ハルシネーションとは、LLMが事実でない情報を自信ありげに生成する現象。ビジネスAI利用の最大リスクの1つで、RAG・Grounding・ファクトチェックで軽減可能。

公開: 2026年4月19日3分で読める

ハルシネーションとは?

ハルシネーション(幻覚) は、LLMが事実でない情報を自信ありげに生成する現象。存在しない論文を引用したり、架空のURLを作ったり、誤った数字を提示します。ビジネス用途では誤情報配信の重大リスク。

発生原因

  • LLMは「確率的に最もらしい語」を生成するため、事実性は保証されない
  • 学習データに無い情報は「推測」で埋める
  • 曖昧な質問ほどハルシネーションが起きやすい

軽減する4つの方法

  1. RAG: 外部情報源を参照させる(最有効)
  2. Grounding: 出典を要求するプロンプト
  3. 温度パラメータ低下: temperature=0 で決定的に
  4. 人間レビュー: 最終承認フロー

ビジネスでの対策

Tufe Companyの実装例:

  • 記事生成 → ファクトチェック専用エージェント → 人間承認
  • 社内Q&A → RAG必須 + 出典URL明示
  • 士業・医療領域 → 有資格者監修の二層チェック

よくある質問

Q. GPT-5やClaude 4でも起きる?

完全にはなくならない。高性能モデルでも、業務利用では Grounding と人間レビューは必須。

関連用語

Tufe Companyのソリューション

関連キーワード

ハルシネーションLLMAI精度RAG

Ready to Start?

自社でもこの戦略を実行したい方へ

Tufe Companyが戦略立案から実装までワンストップで支援します。
まずは無料相談で現状ヒアリングから。

無料で相談する