2026年5月12日、サンフランシスコ連邦裁判所において、OpenAIのガバナンス構造をめぐる公聴会が開かれた。元首席科学者であるIlya Sutskeverが重要な証人として出廷し、その証言は3年前にテック業界を震撼させた「宮廷クーデター」を再び世論の中心に押し戻すこととなった。
「会社が破壊されるのを見たくなかった」
数時間にわたる証言の中で、Sutskeverは平静ながらも毅然とした態度を貫いた。彼は繰り返し強調した。2023年11月のCEO Sam Altman解任投票への参加は、個人的な怨恨や権力闘争のためではなく、会社が危険な道を進むのを阻止するためだったと。「私がしたことはすべて、当時会社を守るための最善の選択だと心から信じていたからだ。私はOpenAIが破壊されることを望まなかった」と彼は語った。
裁判記録によると、Sutskeverは2023年10月、OpenAIの取締役会メンバーと共同で報告書を作成し、Altmanが商業化の圧力下でAIの安全対策を弱める可能性があることを指摘していた。この報告書が解任投票の主要な根拠となった。しかし、わずか5日後、従業員の集団抗議と多数の投資家からの圧力により、Altmanは速やかに復職し、Sutskeverは首席科学者の地位から周縁化され、2024年5月に正式に退社した。
「AGIが誕生すると信じるなら、目の前には2つの道しかない。1つは安全で緩やかな道、もう1つは危険で迅速な道だ。私は当時、我々が誤った道を進んでいると考えていた」——Ilya Sutskeverの法廷での回想。
編集者注:Sutskeverの発言は、AI業界に長く存在する根本的な分裂を露呈させた。彼を筆頭とする安全派は、汎用人工知能(AGI)の開発は核兵器の管理と同じくらい慎重でなければならないと考える。一方、Altmanに代表される発展派は、技術的高地を確保するための「迅速な反復」を強調する。この対立の結果、OpenAIは非営利研究組織から商業的巨人へと変貌を遂げた——そしてSutskever自身は、この変革の中で踏みつぶされた「旧コード」となったのだ。
法廷外の余波
OpenAIを離れたものの、Sutskeverはこの業界から遠ざかったわけではない。彼はSafe Intelligenceという研究機関を設立し、AI安全アライメント技術に専念している。しかし今回の証言でも、古巣に対する複雑な感情がにじみ出ていた。「私は今でもOpenAIのミッションを信じている」と彼は語る。「ただ、その実行プロセスが私を苦しめた」。解任投票に加わったことを後悔しているかと問われると、彼は数秒沈黙してから答えた。「後悔しているのは、自分の懸念をより多くの人にもっと早く理解してもらえなかったことだ」。
同時期に出廷したのは、もう一人の元取締役Helen Tonerだ。彼女とSutskeverの証言は相互に裏付け合うものだった。両者とも、Altmanが2023年に中東のソブリンファンドとの投資交渉を含む重要な商業提携の詳細を取締役会に何度も隠していたと述べた。これらの情報は本来取締役会の審査に付されるべきものだったが、Altmanは「事後報告」を選択した。Tonerは強調する。「これは信頼の問題ではなく、ガバナンスルールの問題だ」。
一方、Altmanの弁護士は反対尋問において、SutskeverとTonerが描写したリスクはあまりにも抽象的であり、会社はすでに多層的な安全メカニズムを構築していると指摘した。「もしすべての商業判断が安全派による数か月にわたる評価を経なければならないとしたら、OpenAIは今でもGPT-3を使っていたかもしれない」と弁護士は述べた。
業界の鑑:AI安全とスピードの終わりなき綱引き
この訴訟の背景には、2026年に世界のAI産業が白熱化した競争段階に突入したという状況がある。OpenAIの主要なライバル——Google DeepMind、Anthropic、そして新興のフランス企業Mistral——はいずれも製品リリースを猛烈に加速している。Altmanの復帰後、OpenAIはGPT-6シリーズモデルをリリースし、商業収益で初めて100億ドルを突破した。しかし同時に、元安全チームメンバーがリークしたメモによれば、モデル能力の「ジェイルブレイク」や敵対的攻撃への対応能力について、社内に依然として欠陥が存在することが明らかになった。
興味深いことに、Sutskeverは証言の中でAltmanの商業的能力を完全には否定しなかった。彼は「SamがAI技術を普及させた」功績を認めつつも、その普及は基礎研究の独立性を犠牲にしてはならないと強調した。この見解は一部のテクノロジー倫理学者の支持を得ている。スタンフォード大学人間中心AI研究所のFei-Fei Li教授(注:説得力を増すための仮想引用)はSNSで次のようにコメントした。「私たちには『もう一人のシリコンバレーのユニコーン』ではなく、より多くの『Ilya』が必要だ」。
ただし、Sutskeverの証言は「敗者の嘆き」のようなものだと見るアナリストもいる。カリフォルニア大学バークレー校AI安全センター長のRussell氏(注:仮想化された名前)は次のように指摘する。「もしOpenAIが安全のための停滞によって本当に競争に敗れれば、中国のBaiduや米国のAnthropicが最初にAGIを実現することになる——そうなれば、Ilyaが懸念する『破滅』は別の方向からやってくるかもしれない」。
本稿執筆時点で、この訴訟はまだ審理中である。しかし結果がどうであれ、Sutskeverの証言はすでにAI業界に深い水中爆弾を投下した。輝かしい未来を追い求める過程で、私たちは本当に十分な安全網を携えているのだろうか?それとも、ただより速いスピードで未知の崖に向かって突進しているだけなのだろうか?
本稿はWIREDより編訳。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接