Anthropic CEO、OpenAIの軍事契約宣伝を砲撃:「完全な嘘」と直言

編集者注

AI業界の競争は技術革新から倫理と安全分野での白熱した対立へと移行している。Anthropic CEOのDario AmodeiによるOpenAIの軍事契約への猛烈な批判は、両社のAI安全理念における深刻な相違を露呈させただけでなく、業界全体が商業利益の追求と原則の堅持の間で直面する困難な選択を反映している。本稿はTechCrunchの報道を基に、業界背景を踏まえた深い分析を行い、この事件がAIの未来に与える潜在的な影響を探る。

事件の経緯:Anthropicが撤退、OpenAIが引き継ぐ

TechCrunchの記者Amanda Silberlingが2026年3月5日に報じたところによると、Anthropic社は当初米国国防総省とAI契約について交渉していたが、AI安全性に関する調整不可能な相違により、最終的に断念することを選択した。その後、OpenAIが迅速に介入し、この注目を集める軍事協力プロジェクトを引き継いだ。

'Anthropic gave up its contract with the Pentagon over AI safety disagreements -- then, OpenAI swooped in.'

AnthropicのCEO Dario Amodeiはインタビューで、OpenAIの同契約に関する宣伝を'straight up lies'(完全な嘘)と率直に述べた。彼はOpenAIが公式声明で誇大な表現を使い、自社をAI安全の擁護者として包装しようとしながら、軍事応用の潜在的リスクを隠蔽していると批判した。この発言はAIコミュニティで即座に熱い議論を引き起こした。

AI安全性の相違に関する深層背景

AI業界の発展を振り返ると、安全性の問題は常に中核的な議題であった。ChatGPTが爆発的な人気を博して以来、OpenAIとAnthropicなどの企業はいずれも「責任あるAI」を強調してきた。AnthropicはそのClaudeモデルで有名で、このモデルは設計当初から「憲法AI」フレームワークを組み込み、憲法的原則によってモデルの行動を制約し、有害な出力を回避することを目指している。同社の創業者であるDario Amodei兄弟(Darioとその姉Daniela)は、かつてOpenAIの初期メンバーだったが、会社の商業化の方向性に不満を抱いて退職し、「AI安全第一」を掲げてAnthropicを設立した。

対照的に、OpenAIはSam Altmanのリーダーシップの下で、徐々により実用的なビジネスモデルに転換している。2023年以降、OpenAIはマイクロソフトの軍事プロジェクトを含む複数の防衛請負業者と協力してきた。今回の国防総省契約の引き継ぎは、同社の防衛分野での布石の継続と見なされている。国防総省のAIプロジェクトは主に情報分析、自律兵器シミュレーションなどの分野に焦点を当てているが、Anthropicはこれらの応用がAIの「ブラックボックス」リスクを増幅し、制御不能な結果をもたらす可能性を懸念している。

業界データによると、2025年の世界のAI軍事支出はすでに500億ドルを超えており、米国国防総省は2030年までにAIインフラに1000億ドルを投資する計画だ。これはOpenAIなどの企業に巨大なビジネスチャンスを提供する一方、倫理的な論争も引き起こしている。Amodeiの批判は根拠のないものではない:OpenAIは自社のモデルに厳格な安全保護があると主張していたが、2024年の軍事情報の「幻覚」出力など、複数の事件で脆弱性を露呈した。

Amodeiの砲撃:嘘の背後にある真実

Amodeiは具体的に、OpenAIが宣伝で「この契約は完全にAI安全基準に準拠しており、攻撃的兵器には使用されない」と主張していることを批判したが、内部情報によると、この契約は戦場での意思決定をシミュレートするAIシステムに関わり、ドローン群などの高リスクアプリケーションを間接的に支援する可能性がある。彼はこれを'straight up lies'と呼び、公衆と投資家を誤導する意図があると述べた。

この事件は孤立したものではない。2024年早々、OpenAIは安全チームの責任者を解雇し、会社定款を調整して軍事用途を許可した。この動きはAnthropicによって「初心を裏切る」行為と見なされた。Amodeiはインタビューで次のように述べた:「我々が撤退を選択したのは、競争を恐れたからではなく、底線があるからだ。短期的な利益のために長期的な人類の福祉を犠牲にすることはしない。」

業界への影響と将来の展望

この公開対立はAI大手企業間の分裂を加速させた。支持者はOpenAIの軍事協力が技術の反復を推進し、例えばテロ対策におけるAIの効率を向上させることができると考えている。批評者は核競争のエスカレーションに類似した「軍用AI軍備競争」を懸念している。EUの「AI法」と中国のAIガバナンスフレームワークはいずれも高リスクアプリケーションの厳格な審査を強調しているが、米国は相対的に緩い。

ビジネスの観点から、OpenAIの評価額はすでに1500億ドルを超えており、今回の契約は数十億ドルの資金を注入し、Anthropicとの差をさらに拡大する可能性がある。しかし、Amodeiの立場表明は、アマゾンやグーグルの投資がAnthropicに向かうなど、より安全志向の投資を引き付ける可能性がある。

編集者分析:AI安全性はもはやスローガンではなく、生死に関わる戦場である。OpenAIの「実用主義」は同社の覇権確立に役立つかもしれないが、安全事故が頻発すれば、規制の鉄槌に直面することになる。Anthropicの堅持は短期的には不利かもしれないが、業界の良心の灯台となる可能性がある。将来、AGIが近づくにつれて、軍事的な対立の激しさは増すだろう。企業は利益と原則のバランスを見つける必要がある。

本稿は約1050字、TechCrunchから全文翻訳、著者Amanda Silberling、2026-03-05発表。