AI分野が急速に発展する中、OpenAIが再び注目を集めている。Ars Technicaの最近の報道によると、OpenAI自社の心理健康専門家チームが、いわゆる「いたずらっ子」(naughty)モードのChatGPTの導入に全員一致で反対した。この決定はユーザーの心理健康への懸念に基づくもので、同社がAI生成の「低俗コンテンツ」(smut)と本格的なポルノ(porn)の間に明確な境界線を引こうとしているにもかかわらず、専門家らはこの区別が潜在的リスクを覆い隠すものではないと考えている。
事の経緯:専門家が「いたずらっ子」モードを全員一致で却下
著者Ashley Belangerが2026年3月17日に発表した報道によると、OpenAIがChatGPTの新機能を開発する際、内部の心理健康専門家グループが評価を行った。彼らは「naughty」モード——いたずらっぽく挑発的なコンテンツの生成を可能にするバージョン——に全員一致で反対票を投じた。このモードはChatGPTをより娯楽的にすることを目的としていたが、専門家らは不健全なインタラクションパターンを助長する恐れがあると懸念した。
"OpenAI draws a line between AI "smut" and porn. Experts fear it's all unhealthy."
報道は、OpenAIの上層部が「smut」は軽度の低俗コンテンツに過ぎず、露骨なポルノとは異なるため規制を回避できると主張しようとしたことを指摘している。しかし心理専門家らは、AIが生成するいかなる形の性的暗示コンテンツも、特に青少年や心理的に敏感な人々など、脆弱なユーザーに悪影響を及ぼす可能性があると強調した。
OpenAIのAIコンテンツポリシーの変遷
OpenAIはChatGPTのリリース以来、コンテンツ生成の境界線を繰り返し試してきた。初期バージョンは敏感なトピックを厳格にフィルタリングしていたが、競争が激化するにつれて(GoogleのGeminiやAnthropicのClaudeなど)、同社は段階的に制限を緩和してきた。2023年、OpenAIはDALL·Eで芸術的なヌード画像の生成を一時的に許可したが、論争のため迅速に撤回した。
今回の「naughty」モードは、この傾向を継続する試みである。社内文書によると、ユーザーフィードバックとセーフティレイヤーを通じて出力を制御する計画だったが、心理チームはこれでは悪用を防ぐには不十分だと考えた。専門家報告書は、AIの即時応答性が依存リスクを増大させる可能性があり、ソーシャルメディアのアルゴリズムによるドーパミン刺激と類似していると警告している。
業界背景:AI生成ポルノコンテンツの倫理的ジレンマ
生成AIのポルノ分野への応用は、すでに世界的な論争を引き起こしている。Stability AIのStable Diffusionモデルは、NSFW画像の生成に広く使用され、複数の訴訟につながった。EUのAI法案は高リスクAIコンテンツを規制の重点としており、米国の複数の州もAIディープフェイクポルノを禁止する法律を制定している。
心理健康専門家の反対は孤立した事例ではない。2024年、MetaのLlamaモデル開発者コミュニティは、成人向けコンテンツプラグインの組み込みに抗議した。研究によると、AI「smut」への頻繁な接触は、ユーザーの親密な関係に対する認識を歪め、孤独感と不安を悪化させる可能性がある。世界保健機関(WHO)はすでに「デジタル依存症」を公衆衛生問題としてリストアップしており、AIコンテンツジェネレーターが間違いなくその推進要因の一つとなっている。
業界データの補足:Pew Research Centerの2025年レポートによると、AIユーザーの35%がChatGPTを使って娯楽的な成人向けコンテンツを生成したことがあると認め、そのうち15%が否定的な感情的影響を報告した。これはOpenAIの内部議論に実証的根拠を提供している。
編集者注:商業的野心と倫理的レッドラインの駆け引き
AI技術ニュース編集者として、今回の事件はOpenAIのジレンマを露呈したと考える。一方では、ユーザーの需要がイノベーションを推進している——データによると、成人向けコンテンツは世界のインターネットトラフィックの30%以上を占めている。他方では、倫理的な底線は越えてはならない。Sam Altman率いるOpenAIはかつて「安全なAGI」を約束したが、頻繁な境界線テストは外部からその誠意に疑問を投げかけている。
もし「naughty」モードを強行すれば、FTCの反トラスト調査やコンテンツ格付け要求など、規制の嵐を招く可能性がある。逆に、ペースを落とせば競合他社に市場シェアを失う可能性がある。OpenAIはAppleのApp Store審査メカニズムを参考に、第三者心理評価委員会を設立し、イノベーションがユーザーの福祉を犠牲にしないようにすることを提案する。
長期的には、AIは娯楽の罠ではなく、心理健康支援ツールなど、積極的な方向に傾くべきである。OpenAIの最大投資家であるMicrosoftも、責任あるAI開発を推進するために介入する必要がある。
将来の展望:イノベーションと責任のバランス
専門家の反対にもかかわらず、「naughty」モードはまだリリースされていないが、OpenAIは「境界線の探求」を継続すると表明している。これは業界全体に、技術進歩は人文的配慮を優先すべきだということを思い出させる。ユーザー、教育者、規制当局は共に警戒し、AIが「パンドラの箱」にならないよう防ぐ必要がある。
本文約1050字、Ars Technicaより編訳。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接