Anthropic、リスクの高いClaude Mythosモデルを開発するも公開しないと発表:AI安全の基準が商業化競争に勝る初の事例か?
AI企業Anthropicは、極めて高い悪用リスクを持つClaude Mythosモデルの開発を完了したが、公開しないことを決定した。この動きは、AIの安全基準を商業化の競争よりも優先させる初のケースとなる可能性がある。
AI企業Anthropicは、極めて高い悪用リスクを持つClaude Mythosモデルの開発を完了したが、公開しないことを決定した。この動きは、AIの安全基準を商業化の競争よりも優先させる初のケースとなる可能性がある。
Anthropicは1億ドルのAI算力とサービスを提供するGlasswing計画を立ち上げ、AI安全性と倫理を重視する研究者と開発者を支援します。この計画は、OpenAIとの競争差を縮小し、高信頼性AI技術の進展を目指しています。