AIが引き起こす妄想の最も厄介な問題
MIT Technology Reviewは、AIが生成する幻覚が人間の偏見と結びつき集団的妄想を引き起こす問題を論じ、特に国防総省のAI軍事利用計画におけるリスクを警告している。
MIT Technology Reviewは、AIが生成する幻覚が人間の偏見と結びつき集団的妄想を引き起こす問題を論じ、特に国防総省のAI軍事利用計画におけるリスクを警告している。
米国防総省がAI企業Anthropicが戦争時に遠隔でAIツールを破壊・操作できる可能性を指摘したのに対し、Anthropicは技術的に不可能だと強く反論した。
ペンタゴンが機密データを用いた軍事用生成AIの訓練環境構築を計画し、同時に小型モジュール炉(SMR)技術の進展がエネルギー分野に革新をもたらしている。
米国防総省は、AnthropicなどのAI企業が高度にセキュアな環境で機密軍事データを使用して専用モデルを訓練することを許可する計画を検討している。この動きは、より戦場のニーズに適合したAIシステムの構築を目指している。
米国防総省が生成AIを軍事目標選定に活用する一方、Anthropic社のClaude AIの安全対策との衝突が表面化し、AI軍事化の倫理的課題を浮き彫りにしている。
AI企業Anthropicと米国防総省が、自律兵器システムへのAI応用を巡って激しく対立。この衝突は、国家安全保障、企業倫理、グローバルAIガバナンスの全面的な駆け引きを反映している。
AnthropicのCEO Dario Amodediは、米国防総省からのAIシステムへの無制限アクセス要求を拒否し、AI軍事利用をめぐる緊張が高まっている。
AI企業Anthropicと米国防総省(ペンタゴン)が、Claude AIモデルの大規模国内監視と自律兵器開発への使用をめぐり激しく対立していることが明らかになった。