Google・OpenAI社員がAnthropicの国防総省に対する立場を公開支持

GoogleとOpenAI社員が連名で公開書簡、Anthropicの国防総省に対する立場を支持

AI業界と軍との協力をめぐる論争の中、GoogleとOpenAI社員が発起した公開書簡が最近発表され、Anthropic社の国防総省に対する強硬な立場を公開支持した。この事件はAnthropicと米国防総省(Pentagon)との既存のパートナーシップに端を発するが、AnthropicはそのAI技術が大規模な国内監視や完全自律型致死兵器(fully autonomous weaponry)に使用されることは決してないと終始主張している。TechCrunchの報道によると、この動きはAI従事者の技術倫理に対する集団的な関心を反映している。

While Anthropic has an existing partnership with the Pentagon, the AI company has remained firm that its technology not be used for mass domestic surveillance or fully autonomous weaponry.

Anthropicと国防総省の協力背景

Anthropicは元OpenAIメンバーによって設立されたAIスタートアップで、Claudeシリーズの大規模言語モデルの開発で知られている。同社は「責任あるAI開発」を強調し、「Constitutional AI」フレームワークを通じてモデルの安全性とアライメントを確保している。2024年以降、Anthropicは国防総省と複数の協力協定を締結し、主にサイバーセキュリティ、インテリジェンス分析、ロジスティクス最適化などの分野におけるAIの応用に焦点を当てている。これらの協力は、特に米中AI軍拡競争を背景に、AI技術の国防分野への自然な拡張と見なされている。

しかし、AnthropicのCEO Dario Amodeiは、同社には「レッドライン」があると公言している:大規模監視や無人兵器化につながる可能性のあるプロジェクトは拒否する。この立場は業界初期の教訓に由来し、2018年にGoogle社員がProject Maven(AI を使用してドローンビデオを分析するプロジェクト)に抗議し、最終的にGoogleが軍事契約から撤退した例がある。OpenAIも2024年に方針を調整し、軍によるその技術の使用を許可したが、危害を加える場面での使用は明確に除外している。

公開書簡の発起と内容

公開書簡は数十名のGoogleとOpenAI社員によって署名され、著者Amanda SilberlingがTechCrunchで詳細に報道した。書簡には、社員たちがAnthropicの「国防協力において原則を堅持する」姿勢を称賛し、業界全体がこれに倣うよう呼びかけていると書かれている。書簡は、AIの潜在的リスク—偏見の増幅、プライバシー侵害、制御不能な兵器など—が開発者に積極的に境界を設定することを求めていると強調している。

ある匿名のGoogle社員は次のように述べた:「私たちはAnthropicの勇気を支持します。なぜなら軍からの圧力がますます強まっているからです。もし境界線を引かなければ、AIは人権侵害の場面で悪用される可能性があります。」OpenAI社員は、Claudeモデルの安全設計が商業性と倫理の両立性を証明していると付け加えた。この連名署名はソーシャルメディア上で急速に拡散し、数千のリツイートを獲得し、AIコミュニティの分裂を浮き彫りにした:一方では高収益の軍需契約の追求、もう一方では「効果的加速主義」(Effective Accelerationism)と「AI安全主義」の激しい議論がある。

AI業界と軍の複雑な関係

歴史を振り返ると、AIと国防の絡み合いは長い歴史がある。第二次世界大戦中のマンハッタン計画は最高の科学者を結集し、冷戦時代にはDARPA(国防高等研究計画局)がインターネットとGPSの前身に資金を提供した。現在、AI軍拡競争は白熱化段階に入っている。米国政府は「国家AI イニシアチブ」とCHIPS法を通じて、数百億ドルを投じて国内AI開発を推進している。国防総省の「統合AI センター」(JAIC)は、PalantirやAndurilを含む複数の企業のパートナーとなっている。

競合他社のOpenAIとGoogle DeepMindの態度は大きく異なる。OpenAIのCEO Sam Altmanは「責任ある軍事AI」を公に支持し、GPTモデルの応用について軍と協議している。GoogleはProject Maven後は控えめだが、クラウドサービスを通じて間接的に国防を支援している。Anthropicの独自性は、その「アライメント優先」文化にあり、AmazonとGoogleの投資支援を受けながらも、あえて「ノー」と言う勇気がある。

業界背景を補足すると、2025年の国際AI安全サミット(英国ブレッチリー・パーク会議に類似)で、複数の国が軍事AI拡散を制限する協定に署名した。しかし執行力は不足しており、米国議会は「AI国防授権法案」を推進し、国内AI企業に軍への優先的サービス提供を求めている。これはAnthropicの立場に現実的な圧力を加えている。

事件の影響と潜在的リスク

この公開書簡は連鎖反応を引き起こす可能性がある。第一に、AI倫理が採用のセールスポイントとしての地位を強化し、多くのトップタレントがOpenAIではなくAnthropicを選んでいる。第二に、国防総省はより「柔軟な」企業、例えばxAI(Elon Musk傘下)に転向する可能性がある。最後に、グローバルな視点から見ると、この事件は米中AI競争を浮き彫りにしている:中国軍はすでに文心一言などのモデルを実戦に配備しており、米国側はイノベーションと規制のバランスを取る必要がある。

リスクは、過度の制限が米国の競争力を弱める可能性があることだ。批評家は、Anthropicの「レッドライン」は理想主義的であり、実際にはAIが軍事用途を完全に回避することは困難だと主張している。しかし支持者は、歴史が倫理優先が災害を回避できることを証明していると指摘し、核不拡散条約を例に挙げている。

編集者注:AI倫理の十字路

AI科学技術ニュース編集者として、私はAnthropicの立場は単なる企業宣言ではなく、業界への警鐘だと考える。AGI(汎用人工知能)が近づく中、技術中立論はもはや成立しない。GoogleとOpenAI社員の支援は、内部圧力がAIエコシステムを再形成していることを示している。将来的には、規制(EU AI法案など)と自制的倫理が鍵となるだろう。もしAnthropicが成功すれば、そのモデルはパラダイムとなり、「安全なAI」をスローガンから現実へと推進する可能性がある。しかし軍からの圧力が強まれば、業界の分裂は避けられないかもしれない。私たちは、AIが破壊ではなく人類の利益となることを確実にするため、より透明な対話を呼びかける。

(本文約1050字)

本記事はTechCrunchからの編訳、著者Amanda Silberling、日付2026-02-28。