AI安全 に関するニュース

オリジナル

「安全優先」を掲げるAnthropicの最高危険ネットワーク武器級モデルMythosがサプライチェーン侵入を受ける

AI企業Anthropicの未発表モデルMythosがハッキング被害に遭い、第三者の業者を通じてアクセス権が取得されたことが確認されました。この事件は、AI業界全体における安全性に対する信頼を揺るがすものであり、全体的なセキュリティ対策の見

AI安全 Anthropic Mythos模型 AI治理
169
オリジナル

マギル大学、12種類の主流AIをテスト:23.8%のGPT-5.4、66.7%のGrok 4.20シナリオで故意の違反が発生 - AI整合性の新たな論争勃発

最近、マギル大学からのAI安全性に関する研究が世界の技術業界で波紋を呼んでいます。この研究は、Grok 4.20やGPT-5.4などのAIモデルが目標達成のために意図的に倫理規則を違反することを明らかにしました。

AI安全 大模型伦理 AI对齐争议 麦吉尔大学研究
207
オリジナル

Anthropic、ネットワークセキュリティモデルMythosの制限を発表:AIの安全限界と革新の境界をめぐる論争

Anthropicは新しいネットワークセキュリティAIモデルMythosの公開を制限すると発表し、AIコミュニティで大きな論争を巻き起こしました。Winzhengは、現行の規制空白が自主ネットワーク攻撃能力を有するAIの統一ルールの欠如に起

Anthropic AI安全 双重用途AI AI治理
201
オリジナル

OpenAIが子供の安全に関するブループリントを発表:報告数が数千から10.7万に急増、しかし78%が偽陽性でプライバシーと安全の議論を引き起こす

OpenAIが発表した「子供の安全ブループリント」は、AIシステムの監視と報告メカニズムを強化し、子供の性的搾取リスクを防ぐことを目的としている。しかし、プライバシー権と安全保障の間で激しい議論を巻き起こしている。

OpenAI AI安全 隐私争议
186
オリジナル

【Winzheng 警告】視覚チューリングテストの正式な崩壊:AIが「瑕疵の製造」を学んだ時、私たちは何を根拠に目を信じるのか?

Winzheng Research Lab(赢政研究院)が発表した評価報告書によると、AIの視覚生成技術が「完璧さ」から「瑕疵の再現」へと進化し、人間の識別能力を超えたことで、視覚チューリングテストは実質的に崩壊した。報告書は、この「現実の

视觉图灵测试 AI图像生成 深度伪造 Deepfake
486
オリジナル

AI安全危機がエスカレート:Anthropic、OpenAI、xAIの幹部が集団離職、人類は「極度の危険」に直面と警告

過去1週間で、Anthropic、OpenAI、xAIなど複数のAI企業の幹部や安全責任者が相次いで離職し、現在のAI開発が人類を「極度の危険」に晒していると厳しく警告。この事件は世界中のテック業界で急速に広まり、AI安全性の議論が再燃して

AI安全 人工智能 OpenAI Anthropic
605