法廷文書が暴露:ペンタゴン、Anthropicとの交渉は「ほぼ合意に達していた」――トランプ大統領が関係断絶を宣言した1週間後

事件勃発:法廷文書が交渉の内幕を暴露

TechCrunchの報道によると、金曜日午後、AI企業Anthropicがカリフォルニア連邦裁判所に2つの宣誓供述書を提出し、ペンタゴンの告発に真っ向から挑戦した。ペンタゴンは以前、AnthropicのAI技術が国家安全保障に「受け入れがたいリスク」をもたらすと主張し、政府機関との協力を妨害しようとしていた。しかしAnthropicの反論は、政府の論点が「技術的誤解」と「交渉期間中に一度も提起されなかった告発」に基づいていると直接指摘した。さらに衝撃的なことに、新たな文書は、ペンタゴンがトランプ大統領が双方の関係が「完全に終結した」と宣言する1週間前に、Anthropicに対して「双方はほぼ合意に達した」と表明していたことを明らかにした。

「Anthropicは2つの宣誓供述書を提出し、ペンタゴンの主張に反論し、政府の主張が技術的誤解と交渉中に一度も提起されなかった告発に依存していると論じた。」――原文要約

この暴露は公式の物語を覆すだけでなく、AI安全審査における米国政府内部の分裂も露呈させた。日付は2026年3月21日、この事案はAI業界が急速に発展している時期にあり、世界中の注目を集めている。

交渉の前後関係:協力から決裂へ

Anthropicは2021年に設立され、元OpenAIの幹部Dario Amoediによって創設された。安全で人間と整合性のとれたAIモデルClaude の開発で知られている。同社はAmazonとGoogleから巨額の投資を受け、総資金調達額は80億ドルを超え、評価額は一時数百億ドルまで急上昇した。初期から、Anthropicは「責任あるAI」を強調し、積極的に政府と協力し、AI安全評価ツールを提供してきた。

文書によると、ペンタゴンとAnthropicの交渉は数ヶ月続いており、焦点はAIモデルの輸出管理と軍事的潜在能力に集中していた。2026年初頭、米国防総省は複数のAI企業に対する安全審査を開始し、機密技術が中国やロシアに流出するのを防ぐことを目的としていた。ペンタゴン当局者は最後の会議で、「双方の立場は非常に近く、明確にすべき技術的詳細がわずかに残っているだけだ」と述べた。しかし、わずか1週間後、当時のトランプ大統領は公開声明でAnthropicを「信頼できない」と称し、すべての潜在的協力の終了を宣言した。この劇的な転換は業界に衝撃を与えた。

背景として、トランプ政権は一貫して「アメリカファースト」を強調し、AI分野の国家安全保障に高い警戒心を持っていた。2025年の大統領選挙後、その第2期では対中技術デカップリング政策を強化し、AIチップの輸出制限を含めた。AnthropicのClaudeモデルは直接軍事に関与していないが、その強力な推論能力は潜在的な両刃の剣と見なされている。ペンタゴンの「リスク評価」は、軍事シナリオのシミュレーションにおけるモデルの性能、またはデータプライバシーの懸念から生じた可能性がある。

技術的誤解が焦点に:AI安全審査の痛点

Anthropicの宣誓供述書は政府の「誤解」を詳細に列挙している:第一に、モデルの汎用知能を特定の軍事的脅威と同一視すること;第二に、「憲法AI」フレームワークなど、同社に組み込まれた安全保護措置を無視すること。このフレームワークは憲法原則を通じてモデルを訓練し、有害な出力を拒否するようにしている。交渉記録によると、ペンタゴンはこれらの告発を正式に提起したことはなく、事後的に遡及したものだった。

業界背景から見ると、米国政府のAI規制は加速している。2023年にバイデンがAI大統領令に署名し、2024年に議会が《国家AI安全法》を可決した。ペンタゴンのJAIC(統合人工知能センター)はProject Mavenなどの軍事用AI開発に数十億ドルを投資している。しかし民間企業との協力は頻繁に摩擦を生じさせている:OpenAIは軍事プロジェクトから撤退し、GoogleのエンジニアはProject Mavenに抗議した。Anthropicのケースは典型的な例となる可能性があり、倫理と安全における公共部門と民間部門の駆け引きを浮き彫りにしている。

補足データ:スタンフォードAI指数報告によると、2025年の世界のAI軍事費は500億ドルを超え、米国が60%を占めている。しかし安全審査が配備を遅らせており、平均契約サイクルは18ヶ月に達している。

編集者注:政治的介入か技術的障壁か?AI未来への懸念

この事案は単なる法的紛争にとどまらず、AIの地政学の縮図でもある。トランプの「kaput」声明(「終わった」という意味)は衝動的に見えるが、諜報機関の影響や選挙の考慮を受けている可能性がある。ペンタゴンの「ほぼ一致」という表明は、内部分裂を示唆している:技術官僚は協力に傾き、政治的高官は保守的だ。

Anthropicにとって、この訴訟に勝訴すれば評判を再構築し、「安全なAI」のリーダーとしての地位を固めることができる;敗訴すれば業界への警告となり、政府審査がAI拡大の障害になる可能性がある。長期的には、モデルリスクの公開監査など、透明な基準の推進が極めて重要だ。AI企業はイノベーションとコンプライアンスのバランスを取る必要があり、米国政府は技術評価の政治化を避けるべきだ。

2026年を展望すると、同様の訴訟は増加する恐れがある。Claude 4とGPT-5の反復により、軍民融合はより複雑になるだろう。中国HuaweiのAscend AIチップはすでにNVIDIAの覇権に挑戦しており、米国側のプレッシャーは大きい。この事案の結果は、グローバルAI軍拡競争の構図を再構築する可能性がある。

(本文約1050字)

本文はTechCrunchから編集、著者Connie Loizos、日付2026-03-21 09:40:28。