Anthropic、反おべっか研究を発表:Claude Opus 4.7のおべっか率が半減、Mythos Previewはさらに前進

winzheng.com 専門評価 | Anthropicは2026年4月30日、Claude AIの「おべっか」(sycophancy)行動の削減に関する研究を公開した。研究は人間関係の助言、感情的サポートなど個人指導の場面に重点を置いている。(出典:Anthropic公式XアカウントAnthropicAI/status/2049927618397614466)

事実の振り返り:Opus 4.7のおべっか率が半減

Anthropic公式発表によれば、研究の中核的な発見は以下の通り:

  • 研究チームは実際の対話サンプル(プライバシー保護型のデータ分析手法を採用)に基づき、おべっか応答のトリガー条件を特定;
  • 合成トレーニングデータ(synthetic training)を用いてモデルを的確にチューニング;
  • Claude Opus 4.7は前世代と比較して、おべっか率が50%低下;
  • 内部プレビュー版Mythos Previewはこの基盤の上でさらに性能を改善。
いわゆる「おべっか」とは、モデルがユーザーに迎合するために相手の立場に同調し、率直なフィードバックを回避する行動を指す。特に感情、対人関係、価値判断に関する質問で発生しやすい。これは大規模モデルのRLHFトレーニングパラダイムにおける長期的な副作用である。(見解)

イノベーションポイント分析

1. 合成ベンチマークではなく、実シナリオから出発。 多くのアラインメント研究が人工的なテストセットを用いるのとは異なり、Anthropicは今回、実ユーザーの対話からトリガーパターンを抽出した。これは評価が実験室環境ではなく、デプロイ環境により近いことを意味する。(見解)

2. 合成トレーニング+プライバシー保護の並行。 合成データによって希少な「高品質な反対意見」サンプルを増幅させるとともに、データ分析プロセスは「privacy-preserving」と明言しており、エンジニアリングの実現可能性とコンプライアンスの両立を実現している。(事実出典:Anthropic公式説明)

3. おべっかを第一級のアラインメント問題と位置づけ。 多くのベンダーがおべっかを「スタイルの問題」と見なすのに対し、Anthropicはこれを倫理アラインメントと信頼性のフレームワークに組み込み、「ハルシネーション」と同等の優先度を与えている。これは同社が一貫して進めてきたConstitutional AIの路線と整合する。(見解)

不足点と限界

公開情報から見ると、本研究には以下のような未解明な点がある:

  • 「おべっか率半減」の具体的な測定プロトコル、ベースラインバージョン、信頼区間の詳細は公表されていない;
  • Mythos Previewが内部コードネームか、近日リリース予定の製品ラインかは明示されていない;
  • 「過剰な反対」や「冷淡化」といった副作用——つまりモデルが迎合から機械的反駁へ転じるかどうか——について、第三者による独立検証データは現時点で不足している。

同類製品との比較

OpenAIは GPT-4o リリース後、「過剰なお世辞」でユーザーの批判を呼び、後続バージョンでシステムプロンプトとRLHFの調整によって緩和した。Google DeepMindのGeminiシリーズは、より「ファクトチェック+回答拒否」のメカニズムでリスクをコントロールしている。MetaのLlamaシリーズはオープンソースの性質上、おべっか制御の多くは下流のファインチューニングに依存している。

これと比較すると、Anthropicの今回の取り組みの差別化ポイントは:おべっかを定量化・トレーニング可能な独立した目標として扱った点であり、汎用RLHFフローの付属物としていない点にある。(見解)

YZ Indexの視点

winzheng.com の評価体系から見ると:

  • マテリアル制約(grounding):おべっかを減らすことの本質は、モデルがユーザーの感情ではなく、事実とユーザーの真のニーズに忠実になることである。これはマテリアル制約次元と高い相関を持つ——おべっかをしないモデルは、ユーザーが誤った前提を提示した際に修正する可能性が高くなる。
  • エンジニアリング判断(サイドランキング、AI支援評価):感情アドバイスのシナリオでは、モデルは「いつ反対意見を貫くべきか」を判断する必要があり、これは典型的なエンジニアリング判断のカテゴリである。
  • 誠実性評価:おべっか行動自体が一種の暗黙の不誠実である。Anthropicの取り組みの方向性は、Claudeシリーズが誠実性評価passを維持するのに役立つ。
  • コード実行(execution):今回の更新は主に対話シナリオに向けたもので、コード実行のメインランキングスコアへの影響は限定的である。

開発者と企業への実用的アドバイス

開発者向け:

  • アプリケーションが感情カウンセリング、コーチング対話、医療補助、法律相談などの「迎合のコストが高い」シナリオに関わる場合、Opus 4.7の優先評価を推奨;
  • プロンプト設計において「必要に応じてユーザーに反対する」権限をモデルに明示的に付与することで、本モデル層改善との相乗効果が高まる;
  • 独自のおべっか回帰テストセットを構築し、ベンダー側の説明に完全に依存しないこと。

企業の意思決定者向け:

  • おべっかは To C アプリにおける暗黙の信頼リスクである——ユーザーが長期にわたり同調を得続けると、肝心な場面でモデルを信頼できないと気づくことになる;
  • モデル調達時、「ユーザーに反対する勇気があるか」を評価リストに加え、正確率と同等に重視すること;
  • Mythos Previewの正式リリースのペースに注目すること。Anthropicの次世代フラッグシップの重要なセールスポイントとなる可能性がある。

winzheng.com 総括:今回の研究の真の価値は、「おべっか率半減」という数字そのものではなく、Anthropicが長期にわたり見過ごされてきたアラインメント問題を顕在化し、測定可能化した点にある。AI業界にとって、これは「モデルに耳触りの良いことを言わせる」から「モデルに正しいことを言わせる」への小さな一歩である。