OpenAIと国防総省の「妥協」はまさにAnthropicが恐れていたもの

事件概要

2月28日、OpenAIは米国防総省(ペンタゴン)との物議を醸す協定締結を正式に発表した。この協定により、米軍は極秘軍事環境でOpenAIのコアAI技術(最先端の大規模言語モデルを含む)を展開できるようになる。この声明はAI業界に衝撃を与え、特に競合他社のAnthropicは大きな反響を示した。同社は以前、同様の協力を公に拒否し、このような「妥協」がAI軍事化のパンドラの箱を開けると警告していた。

「交渉は間違いなく性急だった。」——OpenAI CEO サム・アルトマン(Sam Altman)

アルトマンは発表の中で、今回の交渉がペンタゴンがAnthropicを公に非難した後にのみ開始されたことを認め、OpenAIの政策における急転換を浮き彫りにした。OpenAIは声明で、協定は「管理支援と物流最適化」などの分野に厳格に限定され、兵器開発や攻撃的応用には一切関与しないと繰り返し強調したが、外部からの疑問の声は収まっていない。

発端:ペンタゴンによるAnthropicへの公開圧力

すべてはペンタゴンのAnthropicに対する公然たる不満から始まった。AI安全分野のリーダーであるAnthropicは、元OpenAI幹部のダリオ・アモデイ(Dario Amodei)によって設立され、その中核理念は「責任あるAI開発」であり、軍事兵器や監視システムへの技術使用を明確に禁止している。2025年末、ペンタゴンは公聴会でAnthropicが「国家安全保障のニーズから自らを切り離している」と直接批判し、同社の協力拒否により米国がAI軍備競争で中国に遅れを取ると述べた。

この批判はすぐに効果を発揮した。OpenAIも元々軍との深い協力を約束していなかったが、政府の圧力と巨額の潜在的契約に直面し、立場を迅速に調整した。業界観察者は、OpenAIがすでにマイクロソフトと深く結びついており、マイクロソフト自体がペンタゴンの長期サプライヤーであることから、今回の協定は商業的論理の延長と見なせると指摘している。

OpenAIの政策転換の背景

OpenAIの転換は孤立した出来事ではない。AI業界の歴史を振り返ると、ChatGPTが爆発的な人気を博して以来、軍のAIに対する需要は急激に増加している。2023年、国防総省は台湾海峡における中国の潜在的脅威に対抗するため、AIドローン群を活用する「Replicator」計画を開始した。同時期に、米中AI軍備競争は白熱化し、中国のHuaweiとBaiduはすでに軍用AIチップを発表しており、米国は技術格差の拡大を懸念している。

初期には、OpenAIは2020年に軍事利用を明確に禁止していたが、2024年にはすでに「防御的」応用に対する制限を静かに緩和していた。今回の協定は全面的な突破を示し、GPTシリーズモデルが極秘ネットワークで動作し、情報分析や物流シミュレーションなどに使用されることを許可している。アルトマンは「私たちには厳格な保護措置があり、AIが人類に危害を加えるために使用されないことを保証する」と主張するが、批評家はこのような「自己規制」は有名無実だと考えている。

Anthropicの懸念と反撃

Anthropicの恐れは根拠のないものではない。同社の創設者アモデイは一貫して、AIが軍の手に落ちれば存在リスク(existential risk)を増大させると強調してきた。X(旧Twitter)で、アモデイは「これこそが私たちが恐れていたことだ——短期的な商業的利益が長期的な人類の安全を犠牲にしている」と投稿した。AnthropicのClaudeモデルは性能面でGPTに追いついているものの、その「憲法AI」フレームワークには倫理的制約が厳格に組み込まれており、あらゆる軍事関連の照会を拒否している。

対照的に、OpenAIの妥協は業界の分裂を露呈した:一方には安全第一を追求する「有効加速主義」反対者がおり、他方には国家安全保障を受け入れる実用主義者がいる。Google DeepMindとMetaも同様の圧力に直面しており、前者はすでに英国軍と協力し、後者は中立を保っている。

業界への影響と倫理的議論

この協定はドミノ効果を引き起こす可能性がある。複数のスタートアップ企業が模倣し、OpenAIの独占に対抗するために軍の資金注入を求めるかもしれない。データによれば、2025年の米国防予算のAI部分はすでに100億ドルを超えており、民間研究開発をはるかに上回っている。しかしリスクは明白だ:機密環境でのAIブラックボックス意思決定は、誤判断や予期せぬエスカレーションにつながる可能性がある。

さらに、グローバルな規制は遅れている。EUのAI法は厳格だが国防を除外しており、中国は軍民融合を加速させている。専門家は、OpenAIの先例が国際的な軍備競争を刺激し、AIの兵器化を推進する可能性があると警告している。

編集後記:AIの両刃の剣と岐路

AI技術ニュース編集者として、我々はOpenAIの「妥協」は現実的ではあるが、隠れた危険に満ちていると考える。それは国家安全保障のニーズを満たすが、AI倫理のレッドラインを曖昧にする。Anthropicの堅持は称賛に値するが、競争で遅れを取る可能性がある。将来、AI企業はイノベーション、安全性、責任のバランスを取る必要があり、おそらく国際条約のみが軍事的乱用を抑制できるだろう。OpenAIの性急な行動は業界に警告を発している:技術的中立は幻想であり、権力の真空は軍によって埋められるだろう。

(本文約1050字)

本記事はMIT Technology Reviewより編訳、著者James O'Donnell、2026-03-03。