グラウンディングとは、ChatGPTなどの生成AIが、事実に基づかない情報(ハルシネーション)を生成してしまうことを防ぐための重要な仕組みである。AIが回答を作る際に、あらかじめ指定された社内文書や、Webサイトの最新情報といった信頼できるデータを参照させ、その情報に「基づいて」回答を作成するように制御する。
語源は情報源に「根付かせる」
グラウンディングの語源は、1990年に提唱されたAIにおける「記号接地問題(Symbol Grounding Problem)」という古くからの課題に由来する。AIは言葉(記号)を、膨大なデータから他の言葉との関連性だけで理解しており、人間のように実体験にもとづくイメージと結びつけられない、という問題である。例えば、AIは「リンゴ」という単語を「果物」や「赤い」といった言葉と関連付けて学習するが、私たちが知っている「リンゴの味や歯ごたえ」といった具体的な感覚までは理解できない。このように、言葉が現実世界に根差していないことを、地に足がついていない(接地していない)状態に例えている。
生成AIのファルシネーションが問題となり、この課題への実用的な解決策として、2020年に「RAG(Retrieval-Augmented Generation / 検索拡張生成)」という技術が登場した。RAGは、AIが回答を作る際に、まず外部のデータベースを検索し、そこで見つけた「事実」を根拠として文章を生成する。
この「外部の具体的な情報に結びつける」という仕組みが、記号接地問題へのアプローチに近いことから、信頼できるデータをAIに参照させる技術全般が「グラウンディング(接地)」と呼ばれるようになった。
ファルシネーション抑制だけではないグラウンディングの役割
グラウンディングはハルシネーションの抑制だけでない効果が期待されている。
知識の最新性の確保
LLM(大規模言語モデル)の知識は学習した時点で固定されてしまうが、外部のデータベースやWebサイトを検索することで、常に最新の情報に基づいた回答が可能となる。
特定の専門領域やクローズドな情報に特化させる
社内文書、専門データベース、医療文献など、汎用的なLLMでは入手しづ社内ドキュメントや医療文献、法律の判例といった、特定の専門分野や組織内のみで利用される情報をAIに与えることができる。これにより、汎用的なAIを、特定の用途に特化した専門家のように振る舞わせることが可能。
透明性と説明可能性の向上
「なぜこの回答になったのか?」という問いに対し、根拠となった情報源(ソース)を提示できるようになる。ユーザーは回答の信頼性を自ら確認でき、AIの判断プロセスの透明性が高まる。
geminiや、chatGPTで活用されている事例
グラウンディングは、すでに多くの生成AIサービスで活用されている。
Web検索との連携
GoogleのGeminiやChatGPT、Perplexityといった多くのAIは、質問に対してWebサイトを検索し、その情報を要約して回答を生成する機能(ディープリサーチなど)がある。これもグラウンディング技術の代表的な活用例である。
カスタムAIの「知識」機能
ChatGPTの「GPTs」やGeminiの「Gems」のようなカスタムAI作成機能には、「Knowledge(知識)」として特定のファイル(PDFなど)をアップロードする機能がある。アップロードされた文書はグラウンディングの対象となり、AIはその内容だけを根拠として回答するため、企業の問い合わせ対応や特定業務の支援など、目的に特化したAIアシスタントを簡単に作ることができる。