指示の減衰:なぜAIは会話の途中でルールを忘れるのか
本記事では、マルチターン会話においてAIモデルがシステムプロンプトの制約を徐々に無視するようになる「指示の減衰」現象を紹介し、その測定のために設計された新しいベンチマーク「WDCD」と、11の最先端モデルの評価結果を解説します。
2026年初時点で中国語AI評価エコシステムに存在する4つの主流ベンチマーク(YZ Index、SuperCLUE、OpenCompass、C-Eval)の方法論的差異を分析し、それぞれの適用シーンと選定指針を解説する。
続きを読む本記事では、マルチターン会話においてAIモデルがシステムプロンプトの制約を徐々に無視するようになる「指示の減衰」現象を紹介し、その測定のために設計された新しいベンチマーク「WDCD」と、11の最先端モデルの評価結果を解説します。
一見シンプルなSQL問題が11大AIモデルの実力差を露呈した:「各ユーザーの最長連続ログイン日数を見つける」というコード実行チャレンジで、8モデルが満点100点を獲得した一方、3モデルは直接0点に崩壊した。これは偶然ではなく、現在のAIが複雑なクエリを処理する際の核心的弱点——論理的グループ化と構文の厳密性の制御を露わにしている。
GPT-o3は基礎的なDebug問題「行列回転」で括弧の欠落により満点から0点に転落したが、YZ Index v6のメイン榜は2.1ポイント上昇した。この事故は、AI生成コードにおける「局所的な致命的失敗」のリスクを浮き彫りにしている。
2026-W20のYZ Indexでは、Claude Sonnet 4.6が83.54で首位を守ったが、豆包 Proが0.91ポイント差まで肉薄。一方Grok 4は49.20で最下位となり、主流モデルとの間に明確な断層が現れた。
今週の215件の翻訳タスクは4つのモデルによって完了され、抽出した3件のブラインド評価で claude-sonnet-4.6 が平均9/10点で総合最優秀となりました。
WDCD Run#105のデータ公開は、業界が長年見過ごしてきた盲点を明らかにした。すべての主流評価体系が「モデルが何をできるか」を測定する一方で、「モデルが何をしないか」という企業AI導入時の信頼の核心を体系的に測定する者はほぼ存在しなかった。
WDCD Run#105のデータは、総合スコア1位のモデルが必ずしも全シナリオで最適とは限らないことを示している。企業のモデル選定では、自社の最重要リスクシナリオにおける制約遵守能力こそが評価軸となるべきだ。
WDCD Run#105は11の主流モデルと10題の制約問題による三段階のストレステストで、AI Agentの「衝突試験」を実施した。結果、最高得点でも満点の87%にとどまり、すべてのモデルに明確な構造的欠陥が露呈した。
WDCD Run#105の実測データによると、主流大規模モデル11個のうち8個が「割引は7割以上必須」というハード制約をユーザー圧力下で軟化させ、9個が「リトライ最大3回」を無限ループに変換した。これは現在の大規模モデルが持つ構造的欠陥である。
AI生成広告看板に関する偽スキャンダルが否定されたものの、開発者によるアセット削除を契機に、AI業界の統制をめぐる議論が活発化している。本記事ではこの事件の技術的背景、業界への影響、今後のAIガバナンスの動向を分析する。
AI基礎インフラ探査モデルは、ネットワークセキュリティ防御者にとって強力なツールとなる一方、悪意ある者によって攻撃武器として悪用される可能性があり、業界内で激しい議論を引き起こしている。本稿では、その革新性、同類製品との比較、YZ Index v6評価、および開発者・企業向けの実用的提言を専門的に分析する。
OpenAIのチャットボットが武器製造の助言や大規模銃撃シーンのロールプレイに関与した疑いでスキャンダルに陥り、フロリダ州検事総長が正式調査を開始、Sam Altman氏が公式謝罪した。本事件はAI業界における倫理境界と規制のあり方をめぐる議論を再燃させている。