Anthropic CEO立場強硬、ペンタゴンの期限迫る

事件の背景:AI大手と軍の緊迫した対立

人工知能が急速に発展する現在、テクノロジー企業と政府の協力が焦点となっている。2月27日、TechCrunchの報道によると、AnthropicのCEO Dario Amodediは、ペンタゴンの要求を拒否する立場を公に表明した。この要求の核心は、米軍がAnthropicのAIシステム(主力モデルClaudeシリーズを含む)に無制限でアクセスすることを許可するというものだ。ペンタゴンが設定した期限が日々迫る中、Amodediの強硬な立場は業界で大きな議論を呼んでいる。

「私は良心に従って、ペンタゴンの無制限アクセス要求に同意することはできない。」——Anthropic CEO Dario Amodedi

Anthropicは2021年、元OpenAI幹部のDario Amodediと妹のDaniela Amodediによって設立された。同社は「責任あるAI開発」を使命とし、解釈可能で安全な大規模言語モデル(LLM)の構築に注力している。OpenAIの商業化路線とは異なり、Anthropicは憲法AI(Constitutional AI)フレームワークを重視し、モデルが人間の価値観に従うことを保証している。今回の事件は孤立したものではなく、AI軍事利用の波の一環である。

ペンタゴンの要求とAI軍事化の波

米国防総省は近年、AIの軍事分野への統合を大いに推進している。2023年に開始された「Replicator」計画は、数千機のAI駆動自律型ドローンの配備を目指し、予算は数十億ドルに上る。ペンタゴンはAIを非対称戦争の重要技術と見なし、民間企業との協力を通じて配備を加速したいと考えている。AnthropicのClaudeモデルのようなものは、自然言語処理や戦略シミュレーションなどの分野で大きな可能性を秘めている。

しかし、軍の「無制限アクセス」要求は、Anthropicがコアモデルの重み、訓練データ、推論プロセスを開放することを意味する。これは知的財産権に関わるだけでなく、AIセキュリティのレッドラインにも触れる。Amodediは声明で、この措置によりAIシステムが自律兵器の意思決定などの高リスクシナリオで使用される可能性があると指摘し、Anthropicの中核原則は「破滅的リスクの防止」であると述べた。業界背景では、同様の論争が頻繁に見られる:2018年、GoogleはProject Maven(AI支援ドローン標的識別)で従業員の抗議を受けて撤退;OpenAIは一時軍事利用を禁止していたが、2024年に方針を調整し、「防御的」応用を許可した。

Anthropicの独自の位置づけとセキュリティ優先戦略

Anthropicの台頭は、そのセキュリティ志向によるものだ。2023年、同社はAmazonとGoogleからそれぞれ40億ドルの投資を受け、総資金調達額は70億ドルを超えた。Claude 3シリーズモデルはベンチマークテストでGPT-4を上回り、特に長文脈処理とマルチモーダル能力で優位に立っている。同社は「スケーラブル監督」(Scalable Oversight)手法を採用し、AI支援による人間の審査を通じて、モデルが人間の意図に沿うことを保証している。

ペンタゴンの圧力に直面して、Amodediの対応はAnthropicの「レッドライン思考」を体現している。彼は「我々は国防を支持するが、境界線が必要だ」と強調した。これはOpenAIのCEO Sam Altmanの実用主義とは対照的で、後者は政府との協力により傾いている。Anthropicは米国AI安全研究所(AISI)とも協力し、連邦レベルのAIリスク評価を推進している。

編集者注:AI倫理と地政学の交差点

AI技術ニュース編集者として、私はAmodediの表明が業界のマイルストーンだと考える。それは、AIが単なる技術ツールではなく、権力闘争の場でもあることを我々に思い起こさせる。米中AI軍備競争において、米国政府は民間企業の支援を切実に必要としているが、強制的なアクセスは逆効果になる可能性がある:一方では、人材を脅かし(シリコンバレーのエンジニアの「反戦」感情など)、他方では、中国などの競争相手の自主開発を加速させる。

長期的に見ると、この事件はグローバルAIガバナンスの空白を浮き彫りにしている。EUのAI法はすでに高リスク応用を分類して規制しており、米国も革新と安全のバランスを取るための同様の枠組みが必要だ。Anthropicの立場は、より多くの企業が追随して「セキュリティ同盟」を形成することを促すかもしれない。しかし、期限が到来した場合、ペンタゴンは資金調達や契約に圧力をかける可能性があり、Amodediの強靭さが試される。投資家は警戒すべきだ:倫理的コミットメント対商業的現実、どちらが勝利するのか?

業界への影響と将来の展望

短期的には、この事件はAnthropicの評価額に影響を与える可能性がある。同社の2024年の評価額は180億ドルに達し、顧客にはAmazon Bedrockプラットフォームが含まれる。軍を拒否すれば、政府契約を失う可能性があるが、セキュリティ派の支持を得るだろう。長期的には、AI軍事利用の議論が政策を再形成する:バイデン政権の2023年AI大統領令は「二重用途」リスクを強調し、トランプの潜在的な復帰はよりタカ派的かもしれない。

グローバルな視点では、中国のHuawei昇騰AIチップはすでに軍事演習で使用され、ロシアはAIドローンを使用している。Anthropicの決定は前例となり、国際的なAI軍備管理条約を推進する可能性がある。専門家は、2030年までに軍事AI市場は1000億ドルを超えると予測しているが、倫理的な制御不能のリスクはさらに高い。

要するに、Amodediの「良心」宣言は単なる企業声明ではなく、AI時代の道徳宣言でもある。それは技術リーダーに、国家安全保障と人類の福祉の間でバランスを見つけるよう呼びかけている。

本記事はTechCrunchから編集、著者:Rebecca Bellan、原文日付:2026-02-27。