Anthropic CEO Dario Amodei、依然として国防総省との取引を模索か

はじめに:契約破談の裏に隠された交渉

TechCrunchの報道によると、AI新興企業AnthropicのCEO Dario Amodediは、依然として米国防総省(Pentagon)との重要な取引の成立に向けて努力を続けている可能性がある。以前、AIへのアクセス権限に関する双方の意見の相違により、2億ドル規模の国防総省契約が破談となったにもかかわらず、Amodediの粘り強い姿勢は、AIと軍事協力の複雑性と魅力を示している。

「Anthropicの2億ドル規模の国防総省契約は、同社がAIへの無制限アクセスを軍に提供することに同意しなかったため破談となった。」——TechCrunch要約

この事件は2026年3月6日に発生し、著者Amanda Silberlingの報道は、Anthropicが商業的利益、安全倫理、国家安全保障のニーズの間で難しいバランスを取ろうとしていることを明らかにした。

Anthropicの台頭と安全性への取り組み

Anthropicは2021年に、元OpenAI幹部のDario Amodediと妹のDaniela Amodediによって設立された。同社は、「憲法AI」(Constitutional AI)を重視するClaudeシリーズの大規模言語モデルの開発で知られており、これは内蔵された倫理ルールによってAIの行動の安全性と制御可能性を確保するものである。OpenAIの急速な商業化路線とは異なり、Anthropicは設立当初からAmazonとGoogleからの投資支援を受け、総資金調達額は80億ドルを超え、評価額は数百億ドルに達している。

AI安全分野において、Anthropicは中核的なプレーヤーである。同社は十分な安全評価なしにAIを展開することに公然と反対し、複数の機関と協力してAIリスクを研究している。これによりAnthropicは「責任あるAI」の代名詞となった。しかし、国防総省の関心は、情報分析、自律型兵器、サイバー防衛におけるそのAIの潜在能力に由来している。

契約破談の詳細:権限をめぐる争い

報道によると、Anthropicと米国防総省(DoD)の交渉した契約は、データ処理と意思決定支援のためのAIツールを軍に提供することを目的としていた。契約額は最大2億ドルで、Anthropicにとって重要な収入源となるはずだった。しかし、交渉は重要な点で行き詰まった:国防総省はモデルの重み、訓練データ、推論プロセスを含むAnthropicの中核的AIモデルへの「無制限アクセス」を要求したのである。

Anthropicはこの要求を拒否した。同社は、無制限アクセスが自律型殺傷兵器などの高リスクな軍事シナリオでAIが使用される可能性につながり、安全原則に反すると考えた。これは孤立した事例ではない。2023年初頭、OpenAIは軍事応用を許可するが「武器化」用途を除外するよう方針を変更した;Anthropicはより保守的で、非攻撃的な用途に限定している。

契約が破談となったにもかかわらず、TechCrunchの情報筋は、Dario Amodediが個人的に介入し、限定的なAPIアクセスやカスタマイズされた軍事版などの妥協案を提案した可能性があることを明らかにした。これはAmodediが商業的野心と原則の間で行っている綿密な衡量を示している。

業界背景:AI軍事協力の波

AIと国防の融合は新しいものではない。米国防高等研究計画局(DARPA)は2010年代初頭からAIプロジェクトに資金を提供しており、MavenプロジェクトではGoogle AIを使用してドローン映像を分析した(後に従業員の抗議により中止)。近年、米中AI競争が白熱化する中、国防総省は取り組みを加速している。

  • 2024年、MicrosoftはOpenAIと協力して、DoDにAzureクラウドサービスを提供。
  • PalantirやAndurilなどの企業は、すでに軍のサプライチェーンに深く組み込まれている。
  • 中国側では、BaiduとAlibaba Cloudも「軍民融合」に参加している。

Anthropicの躊躇は、シリコンバレーの分断を反映している:一方ではY Combinatorなどのアクセラレーターが軍事契約を推進し、他方ではAI安全派(Effective Altruismコミュニティなど)が「制御不能なAI」のリスクを懸念している。2025年のReid Hoffmanレポートによると、AI新興企業の60%以上が経済的不確実性をヘッジするために国防契約を検討している。

編集者注:倫理と地政学の交差点

AI技術ニュース編集者として、私はAnthropicのジレンマが業界全体の縮図だと考えている。一方では、国防契約は巨額の資金を注入し、技術の反復を推進できる;他方では、無制限アクセスはバイアスの増幅や意図しない紛争のエスカレーションなど、AIの悪用リスクを拡大する可能性がある。Amodediが交渉に成功すれば、安全なAIも国家安全保障に貢献できることを証明する模範となるだろう。

しかし、より深い問題は規制の欠如である。米国はEU AI法のような枠組みを欠いており、中国は国家統制を強調している。将来的には、軍備競争の制御不能を防ぐために、国際的なAI軍備管理条約が必要になるかもしれない。Anthropicの選択は、Claudeモデルのグローバル展開経路に影響を与えるだろう。

今後の展望:Amodediの次の一手

取引が再開される場合、「ブラックボックスAPI」モデルが採用される可能性がある:軍はモデルを呼び出すが、コアには触れない。Amodediの経歴——かつてOpenAIで安全チームを率いていた——は彼に交渉力を与えている。同時に、Amazon(Anthropic最大の投資家)とCIAの協力の歴史も、橋渡し役となるかもしれない。

結果がどうであれ、この件はAIが実験室から戦場へ移行する必然性を浮き彫りにしている。投資家は倫理的な反発に警戒する必要があり、政策立案者は立法を加速すべきである。

(本文約1050字)

本記事はTechCrunchより編訳、著者Amanda Silberling、2026-03-06。