事前に重みを更新(ファインチューニング)することなく、モデルに「プロンプト内で」タスクの例や指示を与えるだけで、その場で新しいタスクを遂行させる能力である。
つまり、モデルはプロンプト中の入力─出力例や自然言語の指示を“文脈(context)”として受け取り、その文脈から暗黙のルールや変換を推測して新しい入力に対する出力を生成する。これにより、同じ事前学習済みモデルが多数のタスクを柔軟にこなすことが可能となる。
[モデルの動作]
・プロンプトを条件として次トークンを予測
・パラメータ更新は行わない(推論時の振る舞い)
↓
[生成結果]
┌────────────────────────┐
│ 新規入力X → モデルが生成した出力X’ │
│ (例示に基づき出力が決定される) │
└────────────────────────┘
(用途例)
・マイクロコピー生成、会話モック、FAQ自動案
・注意: 検証・人間レビュー必須
起源・提唱者
インコンテキストラーニングという用語とその注目は、OpenAI の GPT-3 論文(Tom B. Brown ら, “Language Models are Few-Shot Learners”, 2020) によって広く知られるようになった。
論文では、モデルに数例(few-shot)を含むテキストを与えるだけで、多様なタスクを学習せずに実行できることが示され、ICL の研究が活発化した。厳密には「単一の個人が提唱した」概念ではなく、OpenAI のチーム実験が契機である。arXiv+1
(参考の人物写真)Tom B. Brown(OpenAI 論文の筆頭著者の一人)に関する公開写真の一例。
仕組み(簡潔な理解)
ICL はモデル内部での「パラメータ更新」を伴わない点が特徴である。与えた例は単に長い入力シーケンス(コンテキスト)として扱われ、モデルはそのシーケンスを条件に次のトークンを予測する過程で、暗黙にタスク仕様を推定していると考えられている。研究コミュニティでは「なぜこれが可能か」という問いが活発に議論されており、確率的推論や多タスク学習の副産物として説明する枠組みなどが提案されている。
デザイン分野での利用方法(である調)
-
プロトタイピング段階の高速検証ツールとして使う
早期プロトタイプの説明文や仕様サンプルをICLプロンプトとして与えることで、ユーザー向け説明文(マイクロコピー)、FAQ、案内文の複数案を短時間で生成・比較できる。細かい文体調整やトーンのテストに有効である。IBM -
ユーザーシナリオやペルソナ表現の自動補完
代表的なユーザー事例(入力)と期待回答(出力)を数件プロンプトに含めると、新たなシナリオや対話パターンを生成できるため、UXライティングや会話フロー設計の初期案作りに適している。ACL Anthology -
インタラクションルールのテスト(実験的検証)
あるUIのインタラクション例(例:フォーム入力→システム反応)を提示し、別の入力に対する期待される反応をモデルに生成させることで、設計ルールが一貫しているかをチェックできる。特に多様な例で挙動が変わるかを見ることで、「どの例が設計の本質を決めているか」が分かる。ACL Anthology
具体的な事例(プロダクト/コンテンツ設計の観点)
-
マイクロコピー生成のA/B案作成
既存の「成功」例(操作説明→ユーザー反応)を3〜5組プロンプトに提示し、新しいエラー状態のメッセージ案を生成。短時間で複数案を得てユーザーテストに回せる。lakera.ai -
カスタマーサポートのテンプレ自動化(設計支援)
代表的な問い合わせと適切な応答を数例示すと、類似問い合わせに対するテンプレ案が得られる。ここで設計者は生成結果をレビューして定着させることで、サポートUXの品質担保を行う。IBM -
対話型プロトタイプの素早いモック(チャットUI設計)
対話例をいくつか示した上で新たなユーザー発話を投げ、モデル生成の返答をそのままプロトタイプに流し込み、実際のユーザーインタビューで試す。実運用前に“不適切な応答のパターン”を早期に発見できる。ai.stanford.edu
「この場面に使えるかな?」 — 推奨シーンと向き不向き
向いている場面:
- 早期のアイデア出し、文言バリエーション作成、プロトタイプの会話案作成で時間を短縮したい場合である。
- ドメインが比較的一般的で、例示が少数で済むタスク(翻訳スタイル変換、要約スタイル、FAQ応答など)に効果的である。finetunedb.com
向かない/注意が必要な場面:
- セキュリティや正確性が必須の場面(医療診断、厳密な法的文書生成など)では、ICLの生成は誤情報や過信のリスクが高いため、必ず専門家レビューや追加の検証が必要である。
- また、与える「例(in-context examples)」の選び方で出力が大きく変わるため、バイアスや不整合を招くことがある。ACL Anthology+1
実務での導入チェックリスト(短く)
- まず少数の代表例を作る(3〜5件)。
- 例を入れ替えて出力差を観察する(安定性テスト)。
- 出力は常に人間がレビューしてから採用する。
- 機密性の高いデータは入れない。ACL Anthology+1
参考・さらなる読み物(概観)
- Brown et al., “Language Models are Few-Shot Learners” (GPT-3 論文)。arXiv
- Stanford AI Lab の解説記事(ICL の仕組みと理論整理)。ai.stanford.edu
- 「A Survey on In-context Learning」(概説論文)。arXiv
AI関連用語
- ディープラーニング → モデルを「最初から学習」する
- RAG→ モデルに「外部知識」をつなげる
- トランスファーラーニング → 既存の知識を「別の分野に転用」する
- プロンプトエンジニアリング → 「入力の工夫」で性能を引き出す
- インコンテキストラーニング → 「その場の例」で一時的に学ぶ
- ナレッジディスティレーション → 大きなモデルを「小さなモデルに縮小」する
- ゼロショット/ワンショット → 「少ない例で推論」する