本来は「幻覚」という意味の英語であるが、生成AIや自然言語処理の分野では 事実に基づかない情報をもっともらしく生成してしまう現象を指す。すなわち、AIが「自信満々に誤った内容を語る」状態を意味する。これは、大規模言語モデル(LLM)が統計的予測に基づいて文章を生成する特性から生じるものである。
提唱者
AI領域における「ハルシネーション」という用語は、明確な単独の提唱者がいるわけではなく、NLP(自然言語処理)研究者の間で2000年代から用いられるようになった比喩的表現である。特にLLMの普及後、Meta(旧Facebook AI Research)、OpenAI、Google DeepMindなどの研究者らが学術論文や記事で頻繁に使用するようになった。
そのため、「発明者」よりも「自然発生的に研究コミュニティで定着した用語」である。
デザインにおける利用方法と具体的事例
活用のポイント
ハルシネーション自体は「避けるべき現象」であるが、UX・コンテンツデザインの観点では以下のように扱うことができる。
-
透明性デザイン
AIが回答を生成する際に、「情報源」を提示したり、「不確実性」を可視化するデザインを行うことで、ユーザーの誤解を防ぐ。 -
ガイド付き入力(プロンプト設計)
ユーザーの質問文を補正したり、AIに検索ベース(RAGなど)を組み込むことで、ハルシネーションを減らす。 -
エラーデザイン
「AIの回答が不正確な場合がある」ことを前提としたUIを設計し、確認や再検索を促す導線を組み込む。
「この場面に使える」具体例
-
カスタマーサポート
AIチャットボットが根拠不明の回答を返してしまうと信頼を失う。FAQのソースを明示し、参照リンクを併記するデザインが有効である。 -
医療・金融アプリ
命や金銭に関わる領域では、ハルシネーションが重大なリスクになる。信頼できるデータベース(ガイドライン、法規制集)と組み合わせる必要がある。 -
教育サービス
生成AIが誤答を示す場合でも、あえて「誤りを見つけさせる」学習体験として利用することで、批判的思考力を養う設計が可能である。