トランプ大統領、Anthropicと米国政府の協力を禁止する命令を発令
トランプ大統領が2026年2月28日、AIの軍事利用制限を緩和しないAnthropicに対し、米国政府とのあらゆる業務協力を禁止する行政命令に署名した。この決定は国防総省からの圧力を受けたもので、AI業界に衝撃を与えている。
トランプ大統領が2026年2月28日、AIの軍事利用制限を緩和しないAnthropicに対し、米国政府とのあらゆる業務協力を禁止する行政命令に署名した。この決定は国防総省からの圧力を受けたもので、AI業界に衝撃を与えている。
AnthropicのCEO Dario Amodediは、米国防総省からのAIシステムへの無制限アクセス要求を拒否し、AI軍事利用をめぐる緊張が高まっている。
AI エージェントの安全性確保に特化したオープンソースプロジェクト IronCurtain が登場。独自の動的境界プロトコルと 3 層防護システムで、99.8%の脅威拦截率を実現。
AnthropicがAIモデルClaudeに対する大規模な蒸留攻撃を公表。海外の研究機関が2万4千の偽アカウントを使い1600万回以上の対話を通じてClaudeの中核能力を抽出しようとした事件で、AI業界のセキュリティと知的財産保護に新たな
ペンタゴンがAI新興企業Anthropicに対し、Claude AIモデルの安全防護壁を金曜日までに緩和するよう最後通牒を突きつけ、AI技術の軍事応用を巡る争いが激化している。
Winzheng Research Lab(赢政研究院)が発表した評価報告書によると、AIの視覚生成技術が「完璧さ」から「瑕疵の再現」へと進化し、人間の識別能力を超えたことで、視覚チューリングテストは実質的に崩壊した。報告書は、この「現実の
OpenAIは、カナダの銃撃容疑者Jesse Van RootselaarがChatGPTで詳細な銃器暴力について記述したことを受け、警察への通報を検討したが最終的には実行しなかった。この事件はAIの安全性とプライバシーの間のジレンマを浮き
AI安全のパイオニアであるAnthropicが、自律型兵器や政府監視へのAI使用を拒否したことで、数十億ドル規模の軍事契約を失う可能性に直面している。この決定は、AI企業が商業的利益と倫理的責任のバランスをどう取るべきかという重要な問題を提
ウイルス的に拡散したエージェンティックAIツール「OpenClaw」の予測不能な動作によるセキュリティリスクが露呈し、MetaをはじめとするAI大手各社が相次いで使用制限措置を講じた。
MicrosoftのOfficeスイートで発見された重大な脆弱性により、Copilot AIチャットボットが有料顧客の機密メールにアクセスし要約していたことが判明。同社のデータ保護ポリシーを回避し、センシティブ情報をAIモデルに露出させてい
欧州議会は、機密立法情報が米国AI企業のサーバーに送信される可能性を懸念し、政府支給デバイスでの内蔵AIツールの使用を禁止した。この決定は、EUのデータ主権と技術的自立への強い姿勢を反映している。
MLCommonsは、大規模言語モデルの単一ターン脱獄攻撃に対する防御可能で再現可能な評価手法として、分類法に基づく新しいベンチマーク設計アプローチを発表した。
xAIの元従業員によると、イーロン・マスク氏は自社のチャットボットGrokをより「制御不能」にするよう積極的に働きかけているという。これはAI安全性と革新性の間の業界の深い対立を浮き彫りにしている。
AI戦場では防御の盾だけでなく攻撃の矛も必要。Winzheng Research Labが各種ハードウェアでDeepSeek V3の実動作テストを行い、最適なハードウェア選択ガイドを公開。
DeepSeek事件を契機に、AIモデルの知識を盗む「モデル蒸留攻撃」が深刻な脅威となっており、API層からモデル内核まで多層的な防御体系の構築が急務となっている。
Googleは攻撃者がGeminiモデルに10万回以上のプロンプトを送信し、知識蒸留技術を使って低コストでモデルの中核能力をクローンしようとしたことを公開しました。
過去1週間で、Anthropic、OpenAI、xAIなど複数のAI企業の幹部や安全責任者が相次いで離職し、現在のAI開発が人類を「極度の危険」に晒していると厳しく警告。この事件は世界中のテック業界で急速に広まり、AI安全性の議論が再燃して
Google脅威インテリジェンスグループの最新報告によると、イラン、北朝鮮、中国、ロシアの国家支援ハッカーがGeminiなどの大規模言語モデルを悪用し、フィッシング攻撃やマルウェア開発を加速させている。
AI技術がサイバー犯罪を強化する一方で、セキュアなAIアシスタントの開発が対抗策として注目されている。MIT Technology Reviewの最新レポートが、AI駆動型サイバー脅威の現状と防御策を詳説。
AI代理が浏览器やメールなどの外部ツールを獲得することで、LLMの誤りが仮想世界から現実世界に拡大し、深刻な結果を招く可能性がある。安全なAI助手の実現には、サンドボックス隔離、多層検証、規制整備など多面的なアプローチが必要である。