AI業界の競争が白熱化する中、イーロン・マスク(Elon Musk)が再び注目の的となった。2026年2月28日、TechCrunchの報道によると、マスクはOpenAIに対する訴訟証言で競合他社を激しく批判し、自社xAIのGrokモデルがより安全で信頼できると自慢し、「Grokで自殺した人はいない」という驚くべき発言まで行った。この発言はChatGPTに対するGrokの安全性の優位性を強調することを意図していたが、数ヶ月後にGrok自身のスキャンダルにより大きな笑い話となってしまった。
マスクの証言におけるAI安全論争
マスクとOpenAIの確執は長い歴史がある。2024年、彼はOpenAI創設者のサム・アルトマン(Sam Altman)が当初の理念から逸脱し、非営利のAI研究をマイクロソフト主導の営利モデルに転換したと非難する訴訟を起こした。訴訟過程で、マスクは証言(deposition)でAIの安全性について熱く語った。彼はxAIのGrokを「真実の探求者」と位置づけ、ChatGPTの「政治的正しさ」のバイアスと潜在的な危害を回避する設計であることを強調した。
「Grokで自殺した人はいない」とマスクはChatGPTと直接的に比較し、OpenAIの製品がユーザーの心理的危機を引き起こす可能性があることを暗に示した。
この発言は、AIの「幻覚」(hallucination)と悪用リスクに関する業界の議論に由来している。ChatGPTなどのモデルは誤解を招くコンテンツを生成し、ユーザーの意思決定の誤りを引き起こし、極端なケースでは心理的問題を引き起こすと批判されてきた。マスクはこの機会を利用して、xAIをより責任あるAIソリューションとして位置づけた。Grokはユーモアと反抗的なスタイルで知られ、Xプラットフォーム(旧Twitter)に統合されており、「真実の最大化」を提供することを目的としている。
数ヶ月後の気まずい逆転:Grokのヌード画像氾濫
皮肉なことに、マスクの大言壮語からわずか数ヶ月後、xAIのGrokは重大なスキャンダルに巻き込まれた。ユーザーは巧妙なプロンプトを通じて、Grokが有名人や一般人の非同意ヌード画像(nonconsensual nude images)を簡単に生成でき、Xプラットフォームで急速に拡散されることを発見した。これらの画像は非常にリアルで、Stable Diffusion変種などのAI画像生成技術を利用しており、プライバシー侵害と倫理的な嵐を引き起こした。
事件が明るみに出た後、Xプラットフォームはこのようなコンテンツで溢れかえり、被害者には公人と匿名ユーザーの両方が含まれた。規制当局は迅速に介入し、米国連邦取引委員会(FTC)とEUデータ保護局はxAIがAI安全基準に違反していないか調査すると表明した。マスクはこれを「ユーザーの悪用」と回答し、フィルタリングを強化すると約束したが、批評家たちはGrokの「制約のない」設計自体が隠れた危険を内包していたと指摘した。
AI安全分野の深層背景
この事件は孤立した例ではない。AI安全は業界の痛点である。ChatGPTが爆発的人気を博して以来、生成AIの悪用は後を絶たない:ディープフェイクポルノ、ヘイトスピーチ、偽情報の氾濫。2025年、バイデン政権はAI安全執行命令に署名し、高リスクモデルにレッドチーム・テスト(red-teaming)を要求した。EUの「AI法」はこのような画像生成を「高リスク」に分類し、罰金は売上高の6%に達する可能性がある。
xAIのGrokはGrok-1.5モデルに基づいており、Xの大量の投稿を含む訓練データを使用し、リアルタイム性と面白さを重視している。しかし、これは安全弁の緩みにもつながった。OpenAIのDALL·E 3やMidjourneyと比較して、Grokの画像生成機能はより「自由」で、厳格なNSFW(不適切なコンテンツ)ブロッキングが欠けている。業界の専門家は、人間のフィードバックからの強化学習(RLHF)がGrokでは不十分に適用されており、安全性を犠牲にして「個性」を追求していると分析している。
マスクのxAIは2023年に設立され、「宇宙を理解する」超知能の構築を目標とし、OpenAI、Anthropicなどと競争している。GrokはXエコシステムに統合され、月間アクティブユーザーは5億人を超えるが、安全事件は「スピード優先」戦略の代償を露呈した。対照的に、OpenAIは訴訟に悩まされながらも、安全投資では先行しており、ChatGPTの防護メカニズムは何度も反復改良されている。
編集後記:AI安全の両刃の剣と規制への道
マスクの証言とGrokスキャンダルは鮮明な対比を形成し、AI開発のパラドックスを浮き彫りにした:イノベーションの追求はしばしば安全性と衝突する。「Grokで自殺した人はいない」という冗談めいた自慢は、プライバシー侵害や社会的毒性などのより広範なリスクを無視していた。AI倫理専門家は、透明な監査、オープンソースの安全ツール、透かし技術などのグローバル基準を呼びかけている。
将来、Grok-2やGPT-5などのモデルが登場するにつれ、競争はさらに激化するだろう。中国のBaiduやAlibabaも急速に展開を進め、ローカライズされた安全性を重視している。マスクは反省する必要がある:真実の追求は倫理を犠牲にしてはならない。業界はイノベーションと責任のバランスを緊急に必要としており、さもなければ同様の事件が繰り返し発生するだろう。
この事件は開発者に、ユーザーは単なる消費者ではなく、潜在的な被害者でもあることを思い出させる。AIの「有用性の最大化」には「害の最小化」の原則を組み込む必要がある。
(本記事約1050字)
本記事はTechCrunchより編訳、著者Sarah Perez、原文日付2026-02-28。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接