五角大楼能否用AI监视美国民众?

近年、米国防総省(ペンタゴン)と大手AI企業Anthropic社との公開論争は、まるで重爆弾のように、米国政府の監視権限というパンドラの箱を開けてしまった。この問題は核心を突いている:法律は果たしてペンタゴンがAI技術を使用して米国民を大規模に監視することを許可しているのか?驚くべきことに、その答えは決して白黒はっきりしたものではない。

国防総省とAnthropicの公開対決

論争の発端は、Anthropicが国防総省に対して同社の旗艦AIモデルClaudeへの全面的なアクセス権を拒否したことだった。Anthropicは公式声明で、同社のセキュリティポリシーは市民のプライバシーを侵害する可能性のある軍事監視プロジェクトへのAI使用を禁止していると表明した。この発言は国防総省の反撃を即座に引き起こし、ペンタゴンはAnthropicの立場を「非愛国的」と非難し、法的手段による強制協力を示唆した。事件は急速に発酵し、各大手メディアのトップニュースとなった。

「我々はAIを監視ツールにはしません。我々は責任あるAI開発に尽力しています。」——Anthropic CEO ダリオ・アモデイ

この対立は孤立した事例ではない。早くも2023年、OpenAIは軍との協力でチャットボットを開発したことで論争に巻き込まれており、「安全第一」のAI新星であるAnthropicの立場はさらに急進的だ。これは、テクノロジー業界が政府の監視利用に対してますます警戒心を強めていることを反映している。

スノーデンリーク:監視論争の起点

2013年を振り返ると、エドワード・スノーデンが米国家安全保障局(NSA)がPRISMなどのプログラムを通じて、Google、Appleなどのテクノロジー大手から膨大なユーザーデータを収集していることを暴露した。このリークは世界を震撼させ、政府が反テロの名の下に市民の通信を「大量収集」(bulk collection)していることを明らかにした。議会は急いで「USA自由法」(USA Freedom Act)を可決し、NSAの行動を制限しようとしたが、核心問題——外国情報監視法(FISA)のセクション702——は今も存続している。

セクション702はNSAが非米国人を対象にデータ収集することを許可しているが、米国人の情報を「付随的に」取得するケースは後を絶たない。スノーデン事件から10年、FISAは何度も更新されたが、根本的な改革は行われていない。2026年、AI技術の爆発的発展により、この法的枠組みは全く新しい試練に直面している。

米国監視法のグレーゾーン

米国憲法修正第4条は市民を「不合理な捜索および押収」から保護しているが、情報機関はグレーゾーンで活動している。主要な法律には以下が含まれる:

  • FISAセクション702:外国のターゲットを対象としているが、米国人のデータがしばしば「偶発的に」収集される。
  • 大統領令12333:大統領令が海外監視を承認し、裁判所の承認は不要。
  • 愛国者法:9/11後の遺産として、データ共有権限を拡大。

AIの介入により問題は複雑化している。従来の監視は人力分析に依存していたが、AIはPB級のデータをリアルタイムで処理し、パターンを識別し、行動を予測できる。ペンタゴンのMavenプロジェクトはすでにAIを使用してドローン映像を分析しており、現在はソーシャルメディアやネットワークトラフィックにも拡大している。法律はAIをカバーしているのか?連邦裁判所はまだ明確な判決を下していない。

ACLUなどのプライバシー擁護者は、AIが「予測的取り締まり」を可能にし、言論の自由を侵害する可能性があると警告している。一方、国防総省は反テロにはAIが必要であり、法律には十分な監督があると主張している。

AIの監視における新たな役割とリスク

AI監視の潜在力は巨大だ。Anthropicのクロードを例に取ると、そのマルチモーダル能力はテキスト、画像、動画を分析し、市民のプロファイルを構築できる。国防総省はAIを使用してソーシャルプラットフォームを監視し、過激な言論や異常な行動などの「脅威シグナル」を検出しようとしている。

業界背景:Palantirなどの企業はすでに軍事エコシステムに深く組み込まれており、AIデータ分析プラットフォームを提供し、年間売上高は数十億ドルに上る。GoogleはかつてProject Mavenから撤退したが、Microsoft Azureクラウドサービスが静かに引き継いだ。Anthropicの拒否は分裂を際立たせている:OpenAIは軍事利用に転向し、xAI(マスク)は公然と防衛を支持している。

リスクは明白だ:アルゴリズムバイアスが少数民族を標的にする可能性がある;Cambridge Analyticaのようなデータ漏洩が再発する可能性がある;「ブラックボックス」AIの意思決定は透明性を欠いている。EUのGDPRは参考になるが、米国には同様の連邦プライバシー法が欠けている。

専門家の見解と将来展望

スタンフォード法科大学院のジェニファー・グラニック教授は述べている:「AI監視は戦争と平和の境界線を曖昧にしており、法律の更新が急務だ。」元NSA職員のウィリアム・ビニーは警告する:「大量監視はすでに常態化しており、AIは侵害を拡大するだろう。」

議会は「AI権利法案」を準備しており、監視AIに裁判所の承認を要求することを提案している。しかし、党派間の分裂は大きく、共和党は国家安全保障を強調し、民主党はプライバシー優先を推進している。バイデン政権の2025年AI大統領令は倫理に言及しているが、執行力が不足している。

将来を展望すると、もしAnthropicが敗訴すれば、AI軍事利用の水門が開かれることになる;もし勝訴すれば、業界の自主規制の波を引き起こすかもしれない。中国、ロシアのAI監視はすでに先行しており、米国が遅れを取れば、情報競争で失点することになる。

編集者注:安全と自由のバランスという張り詰めた弦

ペンタゴンとAnthropicの争いは単なる商業摩擦ではなく、民主主義的価値の試金石でもある。AI時代において、監視は受動的から能動的へ、標的型から予測型へと変化している。政府は透明性が必要であり、テクノロジー企業は責任を果たす必要がある。さもなければ、「ビッグブラザー」の影が自由世界を覆うことになる。我々は議会に対し、早急に立法し、AI監視のレッドラインを明確にし、技術が人類を奴隷化するのではなく、人類に奉仕することを確実にすることを呼びかける。

(本文約1050字)

本稿はMIT Technology Reviewから編集、著者Michelle Kim、2026年3月7日。