OpenAIがかつて軍事利用を禁止、ペンタゴンがマイクロソフト経由でAIモデルをテスト

人工知能が急速に発展する現在、テック大手と軍の協力は常に議論を呼んでいる。最近、WIRED誌が報じたところによると、米国防総省(ペンタゴン)はOpenAIが軍事応用禁止を解除する前から、マイクロソフトのAzureクラウドプラットフォームを通じてOpenAIのAIモデルを秘密裏にテストしていたという。この迂回操作は、OpenAIの内部ポリシーに挑戦するだけでなく、AI軍民両用技術の複雑性を際立たせている。

事件の経緯:禁止令下での秘密テスト

複数の情報筋によると、ペンタゴンの国防イノベーションユニット(DIU)は2023年からマイクロソフトが提供するOpenAI技術を使った実験を開始していた。これらのテストは主に自然言語処理とデータ分析アプリケーションに焦点を当て、例えば情報集約やシミュレーション訓練などが含まれていた。OpenAIの利用ポリシーは「軍事、兵器、または人間に危害を与える用途」を明確に禁止していたが、OpenAIの最大投資家でありパートナーであるマイクロソフトは、Azure OpenAIサービスを通じてこの制限を回避した。

情報筋によると、国防総省はChatGPTメーカーが軍事応用禁止を解除する前に、マイクロソフト版のOpenAI技術を実験していた。

2024年、OpenAIは正式にポリシーを調整し、軍事および国家安全保障分野での限定的な使用を許可したが、ただし兵器開発に直接使用しないことが前提となった。この転換は、世界的なAI軍備競争の現実に対する企業リーダー層の考慮から生まれた。しかし、それ以前のペンタゴンのテストはすでに先行しており、戦場での意思決定支援やサイバー防衛シミュレーションなどのプロジェクトが含まれていた。

業界背景:AI軍事化の加速競争

AIの軍事分野への応用は新しいことではない。米国防高等研究計画局(DARPA)は2010年代初頭から複数のAIプロジェクトを開始しており、例えばMavenプロジェクトではGoogleのAI技術を利用してドローン映像を分析していた。OpenAIの参入は、生成AIが軍の視野に入ったことを示している。マイクロソフトCEOのサティア・ナデラは、責任あるAI軍事応用を支持すると公に表明しており、OpenAIとマイクロソフトの深い結びつき(マイクロソフトは130億ドルを投資)により、技術の流通は自然な流れとなった。

世界的に見ると、中国やロシアなどの国々も軍用AIを積極的に推進している。例えば、中国人民解放軍はすでにAIを無人戦闘システムに組み込んでいる。この競争により、OpenAIは理想主義から現実主義へと転換せざるを得なくなった。創業者のサム・アルトマンは2024年のインタビューで「AIを善の側だけに提供することはできない」と認めた。

マイクロソフト経由の迂回:技術と政策のグレーゾーン

マイクロソフトのAzure OpenAIサービスは、企業ユーザーがGPTモデルにアクセスすることを可能にし、OpenAIの消費者向けポリシーに直接縛られない。ペンタゴンは政府契約を通じてAzureサービスを調達し、間接的にOpenAI技術を使用した。WIREDが入手した内部文書によると、少なくとも3つの国防プロジェクトがこのようなテストに関与しており、総投資額は5000万ドルを超えている。

このモデルは単独の例ではない。AmazonのAWSやGoogle Cloudも同様に軍に対してサービスを提供しており、JEDIクラウド契約などがある。Google従業員の抗議を引き起こしたものの、軍事調達はクラウド大手にとって重要な収入源となっている。OpenAIの禁止令はこのようなエコシステムの中で形骸化しており、企業ポリシーの執行力の限界を露呈している。

編集者注:倫理的ジレンマと規制の声

AI技術ニュース編集者として、この事件はAIガバナンスの深層的な課題を反映していると考える。一方で、軍用AIは情報効率を向上させ、兵士の死傷者を減らすことができる。他方で、自律兵器化を加速させ、「キラーロボット」のリスクを引き起こす可能性がある。OpenAIの譲歩は現実的ではあるが、厳格な監査メカニズムを伴う必要がある。将来的には、国際AI軍備管理条約が急務であり、米国議会は透明性のある立法を推進し、テック大手が軍産複合体の見えない推進者になることを避けるべきである。

この事件は投資家の懸念も引き起こしている:OpenAIの評価額はすでに1500億ドルを超えており、軍事スキャンダルが頻発すれば、公衆の信頼に影響を与える可能性がある。マイクロソフトの株価は短期的に変動したが、長期的には軍事契約はそのクラウドビジネスにとって好材料となる。

未来展望:AI軍備競争の激化

GPT-5などの次世代モデルの登場に伴い、ペンタゴンのAI予算は2026年に20億ドルに達すると予想される。OpenAIは商業的利益と倫理的底線のバランスを取る必要があり、おそらく「レッドライン協定」を通じて高リスクアプリケーションを制限するだろう。同時に、EUのAI法案と中国の新規制は、参考になる道筋を提供している。

この暴露は私たちに警鐘を鳴らしている:AIはもはや実験室の玩具ではなく、大国の駆け引きの駒となっている。テクノロジー企業は慎重に立ち位置を定める必要があり、さもなければ制御不能な渦に巻き込まれることになるだろう。

(本文約1050字)

本記事はWIREDより編訳、著者Maxwell Zeff、原文日付2026-03-06。