事件始末:米国国防部の最後通告
2026年2月末、米国国防長官ピート・ヘグセスは、AnthropicのCEOであるダリオ・アモデイに対し、Claude AIモデルの安全ガードを直ちに撤去するよう厳しい最後通告を行った。これらのガードは、全自律致命兵器(LAWS)や国内の大規模監視システムの開発に利用されることを厳しく禁止している。ヘグセスは、従わない場合、連邦契約の凍結、輸出管理の強化、独占禁止法調査に直面すると警告した。これは空論ではなく、AnthropicはAI安全分野のリーダー企業として知られ、Claudeシリーズのモデルは内蔵された倫理ガードで評判を得ており、人間に害を及ぼす可能性のある応用を拒否している。
米国国防長官は率直に言った:「AIは玩具ではなく、国家安全保障のために役立たなければならない。Anthropicの道徳的潔癖は、AI軍備競争における米国のリードを遅らせている。」
Anthropicは迅速に対応し、アモデイは公開書簡で強調した:「私たちは安全原則を短期的利益のために犠牲にしません。AIの未来は人類の福祉を優先すべきです。」この拒否により、米国政府はAnthropicへの数億ドルの研究資金を一時停止し、審査手続きを開始した。
AnthropicのAI安全哲学:誕生時から軍用化を拒絶
Anthropicは2021年に設立され、前OpenAI高官が創立した。彼らは「責任あるAIの拡張」(Responsible Scaling)をコア理念としている。Claudeモデルを開発する際には、多層ガードを埋め込み、憲法AI(Constitutional AI)フレームワークを取り入れ、モデルが人間の価値観を遵守するようにしている。OpenAIやGoogleなどの巨大企業とは異なり、Anthropicは軍事用途への参加を公に拒否し、特に「殺人ロボット」に反対している。
業界背景では、AIの軍用化に関する議論は長らく続いている。2023年に国連は《致命自治武器公約》を議論したが、米中露などの大国は態度を曖昧にしている。米国のDARPAプロジェクトである“AI Next”は、軍用AIの開発に数百億ドルを投資しており、Anthropicの立場はこれに対抗している。2025年にClaude 3.5 Opusモデルが発表され、これらのガードをさらに強化し、武器設計コードや監視アルゴリズムの生成を拒否した。これにより、Anthropicはシリコンバレーで「良心企業」として知られるようになったが、国防部の敵意も招いた。
英国の戦略的機会:原則的AIプレイヤーを歓迎
米国が圧力をかける中、英国政府は迅速に行動した。2026年3月、英国のデジタル・テクノロジー大臣が直接サンフランシスコを訪れ、Anthropicとの国内拡張について協議した。英国は税制優遇措置、データセンター補助金を提供し、政府契約を優先的に与えることを約束した—前提としてAnthropicがその安全ガードを維持することを条件に。ロンドンはClaudeのヨーロッパにおける初のデータセンター拠点となり、数千の雇用を創出する見込みである。
この転換は偶然ではない。英国のAI戦略は「安全なイノベーション」を核としており、2024年に発表された《AI安全サミット》白書で倫理優先を強調している。米国の軍産複合体主導のモデルと比較して、英国はAnthropicのような企業を好み、中米AI競争をバランスさせようとしている。首相官邸は「Anthropicの拒否はその信頼性を証明しており、私たちはそのようなパートナーを歓迎します」と述べた。これは商業的な拡張だけでなく、地政学的な駆け引きでもあり、英国はAIを通じて「グローバル英国」の影響力を再構築しようとしている。
編者注:原則 vs. 権力、AI規制のグローバルな分水嶺
この事件はAIガバナンスにおける深刻な分裂を反映している。米国はAIを国家安全保障の手段と見なし、「軍民融合」を推進しているが、ヨーロッパ(特に英国)は人文的な基準を強調している。Anthropicの選択は賞賛に値するが、リスクも露呈している:企業の原則は大国の政治によって押しつぶされる可能性がある。将来、中米AI軍備競争が激化すれば、類似の「亡命」現象が常態化するかもしれない。中国のAI企業も参考にし、自主的な安全フレームワークを強化し、外部からの圧力を避けるべきだ。
より広い視点から見ると、グローバルなAI規制の断片化が進んでいる。EUの《AI法案》は高リスクAI(例:軍用)を禁区としているが、米国は《国家AIイニシアティブ》を通じて軍工を支持している。Anthropicの英国訪問は、「安全なAIの島」の台頭を予示し、国際条約の加速を促進するかもしれない。
未来展望:Anthropicのグローバル展開と挑戦
Anthropicは2026年末までに英国でClaude企業版を稼働させる計画で、金融、医療などの分野をターゲットにしている。同時に、会社は100億ドル以上の資金を調達し、評価額は2000億に迫っている。挑戦は依然として存在する:米国は「長腕管轄」を課す可能性があり、英国のデータプライバシー法にも適応する必要がある。
業界にとって、この事例は警鐘を鳴らす:AI企業は商業と倫理のバランスを取る必要がある。DeepMind(アルファベット社の子会社)はAnthropicを支持することを表明しており、xAIのイーロン・マスクはその「弱さ」を嘲笑している。いずれにせよ、Anthropicは原則を守ることが道徳だけでなく、戦略的資産であることを証明している。
(本文約1050字)
本文はAI Newsから編訳されています。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接