AI誇大指数:人工知能が戦場へ向かう

編集者注:MIT Technology Reviewが発表した「AI誇大指数」はAI分野のホットトピックとバブルを追跡しており、今回の焦点はAI軍事利用論争に向けられている。Anthropicとペンタゴンの公開論争、OpenAIの電撃的取引、そして世界的な抗議の波は、AIが実験室から戦場へと移行していることを示している。編集者は、この事件がAI企業の安全性に関する約束の脆弱性を露呈し、業界の構造を再形成する可能性があると考えている。

AI「開戦」:Anthropicとペンタゴンの激しい論争

人工知能が戦場に足を踏み入れている。2026年3月、元OpenAI幹部が創設した安全重視のAI企業Anthropicが、米国防総省(ペンタゴン)と公開論争を展開した。焦点は、Anthropicのコアモデル Claudeをどのように兵器化するかにあった。ペンタゴンはClaudeの強力な推論能力を活用して軍事AI システムを開発し、情報分析や自律兵器の意思決定などの分野で使用したいと考えていた。しかし、Anthropicの創業者Dario Amodiは公に拒否を表明し、これが同社の「責任あるAI」というミッションに反すると述べた。

「私たちはClaudeを殺人マシンにはしません。」——Anthropic公式声明

論争は急速にエスカレートした。ペンタゴンはAnthropicを「非愛国的」と非難し、Anthropicは軍が提案した計画を「非現実的で危険」と反撃した。この事件は孤立したものではない。2023年にはすでにAI軍事利用がホットトピックとなっていた:OpenAIはかつてGPTモデルを兵器に使用しないと約束したが、2024年には密かに方針を緩和していた。「安全派」の代表であるAnthropicは最後の一線を守ろうとしたが、国家安全保障の圧力の下で受け身に陥った。

OpenAIの「電撃取引」:機会主義か戦略的勝利か?

Anthropicとペンタゴンが対立している間に、OpenAIは電光石火の動きを見せた。わずか1週間で、OpenAIは国防総省と数億ドル規模の協力協定を締結し、GPTシリーズモデルを軍事ネットワークに接続した。協定の詳細は秘密だが、業界の情報筋によると「機会主義的で軽率」だという:OpenAIは十分な安全監査を行わず、直接モデルの戦闘シミュレーションと目標識別への使用を許可した。

この取引は業界に衝撃を与えた。OpenAIのCEO Sam Altmanは「取引の王」と称賛され、以前からマイクロソフトと深く結びついていた。今回の軍との協力は、巨額の資金をもたらすだけでなく、ワシントンでのOpenAIの影響力も高めた。背景知識:米国の「国家AI戦略」はAI軍事的優位を強調し、2025年の国防予算でのAI予算は500億ドルを超える。ペンタゴンのReplicator計画は数千機のAIドローンの配備を目指しており、大規模モデルのサポートを緊急に必要としている。

しかし、批判の声が高まっている。AI倫理団体はOpenAIのこの動きを「魂を売った」と称し、「キラーロボット」時代の到来を加速させる可能性があると指摘。国連のAI軍備管理条約交渉もこのために行き詰まっている。

ユーザーの反発:ChatGPT流出とロンドンの「反AI」大規模デモ

市場の反応は迅速だった。取引が明らかになった後、ChatGPTの日間アクティブユーザーは20%急落し、多くのユーザーがClaudeやオープンソースモデルに移行した。ソーシャルメディアでは、#BoycottOpenAIのハッシュタグがトレンド入りし、ユーザーは「AIは人類に利益をもたらすべきなのに、今は悪に加担している」と不満を述べた。

街頭抗議はさらに激化した。3月25日、ロンドンで史上最大のAI抗議デモが発生し、10万人以上がトラファルガー広場まで行進し、「AI軍備競争を止めろ」と叫んだ。デモ参加者にはテクノロジー労働者、環境保護主義者、人権活動家が含まれ、OpenAIとペンタゴンを直接標的にした。同様の事件が米国シリコンバレーやヨーロッパ各地で起こり、AIの両刃の剣に対する公衆の懸念を浮き彫りにした。

業界背景と深層分析:誇大指数急上昇の警告

AIの発展を振り返ると、軍事利用論争は長い歴史がある。2018年、グーグル従業員がProject Mavenプロジェクトに抗議し、同社は撤退した。2022年、ウクライナ戦争でAIドローンが大活躍し、世界的な軍備競争を推進した。中国、ロシアはいずれもAI軍事研究開発を加速しており、米国は当然遅れを取りたくない。

「AI誇大指数」によると、今週の指数は85/100に跳ね上がり、2023年のChatGPTブームのピーク値に近づいている。編集者の見解:Anthropicの失敗は理想主義と現実の乖離に由来する。OpenAIの勝利は短期的には利益を得るが、長期的なリスクは巨大だ——AIが制御不能になったら、誰が責任を取るのか?将来、AI企業は商業、国家安全保障、倫理の三者間のバランスを取る必要がある。EUのAI法などの規制が鍵となる可能性がある。

この「AI戦争」は単なる技術の争いではなく、価値観の衝突でもある。Anthropicは一時的に敗北したが、その堅持は新世代のAIガバナンスモデルを触発する可能性がある。

(本文約1050字)

本文はMIT Technology Reviewより編訳