国防当局者が明かす:AI チャットボットが標的攻撃決定を支援する方法
米国防総省当局者が MIT Technology Review に対し、米軍が生成 AI システムを使用して標的リストの優先順位付けを行い、攻撃順序を推奨していることを明らかにした。これらの AI 提案は人間のオペレーターによって厳格に審査
米国防総省当局者が MIT Technology Review に対し、米軍が生成 AI システムを使用して標的リストの優先順位付けを行い、攻撃順序を推奨していることを明らかにした。これらの AI 提案は人間のオペレーターによって厳格に審査
米軍がイランへの空爆でAnthropicのClaudeモデルを標的識別に使用していることが判明し、倫理的懸念から国防関連企業の顧客離れが加速している。
AI大手のAnthropicが米国防総省を公然と批判し、自社技術を「サプライチェーンリスク」に指定したことは「法的に不合理」だと主張。軍事利用を巡る交渉決裂が背景にある。