Anthropic、リスクの高いClaude Mythosモデルを開発するも公開しないと発表:AI安全の基準が商業化競争に勝る初の事例か?
AI企業Anthropicは、極めて高い悪用リスクを持つClaude Mythosモデルの開発を完了したが、公開しないことを決定した。この動きは、AIの安全基準を商業化の競争よりも優先させる初のケースとなる可能性がある。
AI企業Anthropicは、極めて高い悪用リスクを持つClaude Mythosモデルの開発を完了したが、公開しないことを決定した。この動きは、AIの安全基準を商業化の競争よりも優先させる初のケースとなる可能性がある。
Anthropicは、AIモデルClaude Mythosが持つ危険性を理由に公開しないと発表しました。これに対し、安全性を重視する声とオープンソースの自由を求める声が対立しています。
Anthropicは、高性能を誇るAIモデルClaude Mythosをネットワーク防御機関に限定公開することで、AI業界の安全性と進歩のバランスに関する深い議論を引き起こしています。