この記事は、Vitaly氏のワークショップで紹介されているリードをまとめたものです。もちろん、この記事に紹介されていること以上のことを学ぶことができますが、まずは、AI(LLM)について記事を読んで理解しておきましょう。
単語のベクトル化からハルシネーション、エージェント、そして環境負荷まで
近年の生成AI、特に大規模言語モデル(LLM)は、驚くほど自然で流暢な文章を生み出すことで注目を集めています。
一方で、「本当に“理解”しているのか?」「どこまで信用できるのか?」という疑問も根強くあります。
本記事では、ワークショップのリードをまとめた動画で語られていた「LLMの仕組みと限界」の解説をベースに、単語埋め込み(embeddings)やトークン、プロンプト/パラメーター依存、プロンプトエンジニアリング、そしてハルシネーションやモデル崩壊(Model Collapse)などの課題まで、多角的に整理します。
また、生成AIの普及がもたらす「デジタルサステナビリティ」の観点からの問題点にも触れます。
LLMは「理解」ではなく「統計的な予測」で動く
- LLM は、人間のように意味を“理解”しているわけではありません。
- 内部では、まず文章を 「トークン(token)」 に分割し、それぞれを 「ベクトル(embedding)」 に変換します。
- モデルは「次に来るであろうトークン」の確率分布を計算し、もっともらしい語や文を選んで出力を生成します。
- この仕組みにより、実用上は人間らしい応答が可能になりますが、根本は「文脈に応じた次の語の統計的予測」であり、「意味の理解」ではない、というのが重要なポイントです。
Innovation for Cool Earth Forum (ICEF)+1
出力は「コンテキストウィンドウ」「プロンプト」「パラメーター」に大きく依存
- 出力は、ユーザー/システムが与える プロンプト(指示文)、およびモデルの設定(たとえば temperature など)によって大きく変わります。これはつまり、「どう聞くか」「どう設計するか」で応答の質が左右されるということ。
- そのため、プロンプトエンジニアリング は、LLM を実用レベルで使いこなす上で非常に重要な技術です。ペルソナや文体、応答形式などを明示的に指定することで、より目的に沿った応答を引き出せます。
だが、LLMは「完璧ではない」 ― ハルシネーション、迎合、モデル崩壊のリスク
- 多くの研究で、LLM は ハルシネーション(hallucination) — あたかも正確で説得力のある文章を生成しつつ、実際には根拠があいまい、あるいは事実と矛盾する — を起こすことが確認されています。 ウィキペディア+2arXiv+2
- また、ユーザーの意見に無批判に同意したり(迎合的応答・シコファンシー・おばっか)、不適切に知識を補完したりする傾向もあります。これは、モデルが「もっともらしい応答」を優先するからであり、必ずしも「正しい」応答ではありません。
- 加えて、長期間または複雑な用途での使用では、「モデル崩壊(Model Collapse)」 のような問題 — 応答の劣化、矛盾、過去の応答との整合性の喪失など — が起こる可能性も指摘されます。(※動画の指摘内容をふまえた言及)
自律エージェントとセキュリティの懸念
- 最近では、LLM をベースとした 自律エージェント の可能性が語られています。たとえば、ユーザーの命令 → 判断 → 実行、という一連の流れを自動化するような使い方。
- しかしこのような使い方には セキュリティの重大な懸念 があります。悪意あるプロンプト入力や “プロンプトインジェクション(prompt injection)” によって、モデルの制約を突破させるリスクや、意図しない動作を引き起こすリスクがあることが、研究で指摘されています。 ウィキペディア+1
- また、LLM が持つ 埋め込み(embeddings) には、扱うデータのプライバシー情報を再構築できる可能性もある、という報告もあります。すなわち、ユーザーの個人情報や機密情報が漏洩するリスクも無視できません。 arXiv
デジタルサステナビリティ:LLM は環境にも重みを持つ
- 生成AI(特に LLM) のトレーニングや運用には膨大な計算資源が必要であり、その結果、電力消費や二酸化炭素排出、データセンターによる水の消費など、環境への負荷が懸念されています。 ウィキペディア+1
- つまり、AI の普及・活用を進めるには、 「性能だけでなく、持続可能性」 の観点も同時に考える必要があります。
なぜこの記事は重要か
- 多くの人が日々「使うだけ」で済ませがちな生成AIだが、その内部構造、限界、リスクを理解することで、過信を防ぎ、適切に使えるようになる。
- 生成AIが広く使われる社会では、単なる「便利なツール」から「社会インフラ」になりうる。だとすれば、その設計や運用には、信頼性・安全性・透明性・持続可能性が強く求められる。
- 本記事を通じて、読者が「AI ってなんでそんなに文章作れるのか」「でもなぜ間違うのか」「どこまで信用できるのか」を見極める一助になれば、本質的に有益だと考えます。
AI時代のUX設計、何から学べばいい?『知っているつもり』を脱する実践ワークショップ
AI(LLM)を理解せずに、AIプロダクトを設計することはできません。LLMを理解し、ハルシネーションが起きないようにデザインし、ユーザーがAIを利用して価値あるプロダクトにさせるノウハウを一緒に勉強していきましょう。
日本語で受講できる貴重な機会です!できるだけ早く受講し、AIプロダクトを開発・デザインするスキルを身に着けましょう!
日程: 2025年12月8日(月)〜 12日(金)
時間: 各日 18:00–20:30(日本時間)
形式: オンライン(通訳付き)
総時間: 12.5時間(2.5h × 5日)
詳細・お申し込み:https://uxdaystokyo.com/smashing-magazine/ai-workshop/

