国防長官がAnthropic CEOのAmodeiを召喚、Claude軍事利用論争を協議

事件の背景:国防総省とAI大手の対立

TechCrunchの報道によると、米国防長官のPete Hegsethは最近、AnthropicのCEOであるDario Amodeiを召喚し、ペンタゴンでの緊張した会談を要求した。焦点は米軍によるAnthropic社のClaude AIモデルの使用に直接向けられた。Hegsethは明確に、Anthropicが協力しなければ、同社を「サプライチェーンリスク」に指定することを推進すると表明した。これはAnthropic社の製品とサービスが厳格な審査、さらには禁止令に直面する可能性があることを意味する。

「国防長官のPete HegsethはAnthropic CEOのDario Amodeiを召喚し、米軍によるClaudeの使用について緊張した議論を展開した。Hegsethは、Anthropicを『サプライチェーンリスク』に指定すると脅した。」——原文要約

この事件は2026年2月23日に発生し、AI軍事化分野における米国政府の日増しに強硬な姿勢を反映している。AnthropicはAI安全分野の主導企業として、そのClaude大規模言語モデルシリーズで知られており、このモデルは性能面でOpenAIのGPTシリーズに匹敵、あるいはそれを上回ることさえあるが、その核心理念は「責任あるAI開発」であり、高リスクアプリケーション、特に軍事用途の回避を強調している。

Anthropicの立場とClaudeの軍事利用論争

AnthropicはDario Amodeiと妹のDaniela Amodeiによって2021年に設立され、前者はかつてOpenAIの研究担当副社長だった。同社は憲法AI(Constitutional AI)技術により急速に台頭し、モデルが人間の価値観に従うことを確保している。2024年に発表されたClaude 3シリーズモデルは、すぐに企業向けAIの第一選択となったが、Anthropicは軍事用AI兵器を直接開発しないことを公約している。

しかし、米軍はすでに様々なチャネルを通じて、情報分析、シミュレーション訓練、ロジスティクス最適化におけるClaudeの可能性をテストしている。例えば、ペンタゴンの統合人工知能センター(JAIC)は、データ処理のためにClaudeを調達したと報じられている。これはAnthropic内部の懸念を引き起こしている:一方で、同社はAmazonとGoogleのクラウドサービスに依存しており、両社ともに深い軍事契約を持っている;他方で、Amodeiは何度も公に、AI軍事利用が「制御不能なリスク」をもたらす可能性があると述べている。

国防長官Hegsethの強硬な発言は根拠がないわけではない。就任後、彼はAI分野における中国の先行に対抗するため「AI優先」防衛戦略を推進している。Hegsethは、Claudeなどの民生用AIの制限が米軍の競争力を弱めると考えており、そのため「サプライチェーンリスク」のラベル付けを脅威として使っている——これはHuaweiが直面した制裁に似ており、Anthropicの連邦資金とパートナーシップを断ち切ることになる。

業界背景:AI軍民融合のグローバルな駆け引き

軍事分野でのAIの応用は大勢となっている。早くも2023年に、米国防総省は「データ、人工知能、人間戦略」を発表し、自律兵器システムの開発に数百億ドルを投資した。中国、ロシアも同様に配備を加速しており、中国の「鋭智計画」などがある。Anthropic事件は米中AI競争における民生-軍事境界の曖昧さを浮き彫りにしている。

類似の事例は枚挙にいとまがない:OpenAIはかつて軍事利用を禁止していたが、2024年に方針を緩和し、軍にGPT-4oを開放した。GoogleのProject Mavenプロジェクトは従業員の抗議を受けたが、最終的に契約を更新した。Anthropicの「安全第一」の立場は一時称賛されたが、今や現実的な圧力に直面している。2025年、米国議会は「AIサプライチェーン安全法案」を可決し、国防総省にAI企業を審査するより大きな権限を与えた。

編集者注:この召喚はAnthropicの危機だけでなく、AI業界全体の転換点でもある。Amodeiの対応は、会社が妥協するかどうかを決定する。リスクに指定されれば、Anthropicの評価額は数百億ドル蒸発する可能性がある。より深く見れば、これはAI倫理の限界線を試している:国家安全保障の前で、「責任あるAI」は堅持できるのか?

潜在的影響と将来展望

短期的には、この事件によりAnthropicが方針を調整したり、議会の介入を求めたりする可能性がある。長期的には、AI規制立法を加速させるだろう。EUのAI法はすでに高リスク軍事AIを禁止区域としており、米国も追随する可能性がある。

投資家にとって、Anthropicの資金調達見通しは憂慮すべきものだ。同社の2024年の評価額は150億ドルに達し、主にAmazonの投資に依存している。軍の禁令が実施されれば、Claudeの商用展開は妨げられるだろう。一方で、これはPalantirやAndurilなどの国内AI軍事企業の台頭を刺激する可能性がある。

会談でAmodeiは「Claudeは人類に利益をもたらすよう設計されており、破壊するためではない」と強調したと報じられている。しかしHegsethは「国家安全保障が何より優先される」と応じた。この駆け引きの結末は、AI業界の構図を再形成するだろう。

編集者分析:イノベーションと安全性のバランスの岐路

AI技術ニュース編集者として、私はAnthropic事件がAIの両刃の剣としての本質を露呈したと考える。技術中立論は美しいが、地政学的状況下では持続困難である。企業は明確な境界線を制定する必要があり、同時に政府は透明な調達を行い、「バックドア」リスクを回避すべきである。将来的には、軍備競争の制御不能を防ぐため、国際AI軍備管理条約が必然となるかもしれない。

本文約1050字、TechCrunchより編訳、著者Rebecca Bellan、2026-02-23。