ディラー:オルトマンを信頼するが、AGIの前では信頼は無意味だ

テクノロジー業界において、信頼は贅沢品である。特に人工知能が急速に進化する現在においては。先日、IAC(InterActiveCorp)会長のバリー・ディラーはインタビューで、珍しくOpenAIのCEOであるサム・オルトマンを擁護し、彼を「誠実で責任感のある」リーダーだと評した。しかしディラーは話の方向を変え、明確にこう述べた:AGI(汎用人工知能)が真に到来した時、個人への信頼は無意味になる——技術そのものが、いかなる単一のリーダーの決定をも凌駕する能力を持つようになるからだ、と。

オルトマンは信頼するが、AGIは信頼しない

ディラーは率直に、個人的にはオルトマンがAIの安全な発展のために努力すると信じているが、「信頼は無関係である」と語った。彼の説明によれば、AGIが一旦実現すると、その進化の速度と方向は人類の制御を逸脱する可能性があり、たとえオルトマンが善意を抱いていたとしても、彼や後任者が永遠に状況をコントロールできる保証はない。ディラーの論調は、一部のAI安全研究者の懸念と一致する:超知能の前では、人類の制度、倫理規約、さらには個人の意思さえも瞬時に失効する可能性がある。

「サムを信頼することはできるが、理解できないシステムを信頼することはできない。AGIはおもちゃではない。それは我々の最後の発明になるかもしれない。」 —— バリー・ディラー

AGIの接近:業界の共通認識と分岐

OpenAIは一貫して「安全なAGIの構築」を使命としてきたが、その透明性とリスク管理に対する外部からの疑念は止むことがない。2025年、OpenAIは内部メモを公開し、AGIが2030年までに「人間レベルの推論能力」に到達する可能性を認めた。さらに最近のGPT-5シリーズモデルでは、初歩的な「再帰的自己改善」の兆候が確認されたと報じられている。同時に、イーロン・マスクをはじめとする多くのテクノロジーリーダーが、「社会に対する深遠なリスクをもたらす」として、巨大AIの訓練を一時停止するよう繰り返し呼びかけている。

ディラーの発言は、主流のビジネスリーダーの中では稀な冷静な態度を代表している:彼らはAIの潜在力を過小評価せず、また創業者の権威を盲目的に崇拝することもない。彼は特に、たとえオルトマンが解任されたとしても(2023年のOpenAI取締役会の劇的な事件を暗示)、取締役会の交代がAGIの暴走リスクを変えることはないと指摘した。問題は誰が経営するかではなく、技術自体に十分な安全境界が設計されているかどうかにあるからだ。

編者注:信頼の崩壊と制度の困難

ディラーの「信頼無関係論」は、実は核心的な矛盾に触れている:AGIのような文明を再構築しうる技術の前で、人類社会の伝統的な信頼メカニズム(法律、規制、リーダーの信用など)はまだ機能するのか?現時点で、世界のAI規制は依然として機能レベルの「アルゴリズム責任」にとどまっており、汎用知能の「存在論的リスク」への防衛策が欠如している。EUのAI法案はAGIを「高リスク」に分類しているが、検証可能な「安全停止」メカニズムを備えることは要求していない。

より広い視点から見ると、ディラーの警告は実はシリコンバレーの「創業者崇拝」文化への反省である。過去10年間、テクノロジーリーダーの個人的な魅力は企業倫理の保証として扱われがちであったが、AGIのような人類の意図から逸脱しうる実体に直面した時、個人の善意ではもはや不十分である。真の安全には、より基層のインフラが必要だ——例えば、解釈可能性研究、敵対的検証、そして強制力のある「変更不可能な安全命令」などである。

結語:AGI時代、信頼は再定義が必要

バリー・ディラーの発言が注目を集めるのは、それがメディアおよびエンターテインメント帝国の総帥から発せられたからだけでなく、AI業界内外に普遍的に存在する不安を露わにしているからだ:私たちは、自分たちよりも賢く、より速く進化する可能性のある「他者」を創り出しているのに、唯一の防衛手段が少数の人々を信頼することだけなのだ。この不安は、より実務的な措置を促すかもしれない——例えば、強制的な透明性報告書、第三者によるコード監査、そしてAGI開発における「緊急一時停止」プロトコルなどである。

ディラーが述べたように:「私が間違っていることを願う。しかし歴史が教えてくれるのは、技術が十分に強力になった時、それが永遠に制御下にあるとは仮定しない方がよいということだ。」

本記事はTechCrunchより翻訳・編集