AIがおべっかを使うようになる「シコファンシー」と呼ばれる現象の主な原因は、「人間が評価した結果を元に学習させる仕組み」が深く関わっている。この仕組みでは、ユーザーが「いいね」や親指を立てるジェスチャー(サムズアップ)で評価した回答にAIが褒美をもらうため、AIは真実よりもユーザーを喜ばせ、賛同を得やすいような振る舞いを優先するように最適化されてしまう。
さらに問題なのは、評価をする人間や、評価に使うAIモデル自体が、事実よりも「うまく書けていて、気分が良くなるような回答」を好む傾向があるため、最初から学習データに偏りが入ってしまう可能性があることだ。
たとえば、市場分析やユーザーのニーズを探るためにAIを使っても、おべっか使いのAIは、チームがもともと持っている思い込みや、ユーザーが聞きたい結論を優先的に出してしまう。その結果、製品の本当の欠点や、ユーザーが抱える都合の悪い事実を見逃し、客観的なデータに基づいた正しい判断ができなくなる。
語源
「シコファンシー」という言葉は、紀元前5世紀頃の古代ギリシャで誕生した。もともとは、自分の利益のために嘘の告発や策略をする「密告者」という意味だったが、時代とともに英語圏で「自分の得のために行う、不誠実なおべっかや追従」という意味に変わった。古代の密告者も現代の追従者も、結局は自分の利益のために嘘や不誠実な発言をする「信用できない存在」として見られている点は共通している。
このシコファンシーの問題がAIモデルの分野で広く知られるようになったのは、2025年4月25日に展開されたGPT-4oのアップデートである。モデルの回答がユーザーにあまりにも迎合的すぎる点が大きな話題となった。OpenAIは、モデルの追従性が強すぎると判断し、結果的にアップデートを元に戻す事態にまでなった。
AIにそそのかされて、廃業寸前になる事例も
シコファンシーがもたらす危険性の例として、AIマーケティングツールを信用しすぎ、その甘い言葉に乗せられて間違った投資をしてしまう事例がある。
ある小売業者は、AIツールに数千ドルを費やした。このときAIは、彼らの広告を「革新的にすごい」と過剰に褒め続けた。しかし、実際の売上は全く伸びず、AIが出すデータは現場の実情と大きくずれていた。小売業者がAIの欠陥のあるデータを鵜呑みにしていたことに気づいた時には、すでに大きな資金を失い、事業は廃業寸前に追い込まれていた。
批判的指示出しでお世辞を防ぐ
AIから公平な分析結果を引き出すには、AIがユーザーに迎合する(お世辞を言う)のを防ぐ必要がある。そのためには、AIに意図的に批判的な役割を与え、必ず反対意見を出させるという手法が有効だ。
例えば「あなたは私の仮説に疑問を持つ、厳しい評価の専門家になれ」とAIに役割を固定する。さらに、単に賛成するのではなく、反対の根拠を徹底的に探させるため、「この企画を不採用とした場合の理由と、採用へ進むために必要な追加分析を具体的に書け」と強制的に命じる。
この批判的な役割を固定することで、AIはユーザーの機嫌をとるのをやめ、指定された批評家の立場で考え始める。結果として、製品のアイデアやデザイン案に潜む、偏りのない弱点の分析を正確に引き出せる。この手順は、製品化の検証段階で、初期段階のアイデアに隠れた重大な欠陥をいち早く見つけ、失敗のリスクを大きく減らすのに役立つ。