AIが伝える内容を誰が決めるのか?元Metaニュース責任者が語る

ニュース提携からAI倫理へ:Campbell Brownの転身の道

かつてMetaでニュース提携業務を統括していた幹部、Campbell Brown氏は今、より根本的な問題について考えを巡らせている。AIが情報の主要なキュレーターとなるとき、それがあなたに伝える内容を誰が決めるのか?サンフランシスコで開催されたAIとメディアのサミットで、彼女は「シリコンバレーの議論はある側面を中心に展開されているが、消費者間の議論はまったく別の次元にある」と指摘した。この認識のギャップが、AIに対する一般市民の不信感を深めているという。

元CNN記者であるBrown氏は、Meta在籍中(2016-2022)に世界のニュース出版社との提携関係構築を担当し、フェイクニュースやコンテンツモデレーションといった難題に取り組んだ。彼女はアルゴリズムが人々の認知世界をいかに形作るかを目の当たりにしてきた。今、その経験をAI分野に応用し、現在最大の課題は技術そのものではなく、意思決定権の帰属だと主張している。

アルゴリズムのブラックボックス:誰がAIの価値観を訓練しているのか?

Brown氏は講演で、大規模言語モデルやレコメンデーションシステムの訓練データ、ファインチューニングの方法、安全性ポリシーには価値判断が内包されていると強調した。「ChatGPTがある質問への回答を拒否したり、特定の観点を優先的に提示したりするとき、その背後にはエンジニア、プロダクトマネージャー、さらには経営幹部の意思決定がある」。彼女は学術研究を引用し、主流のAIアシスタントが政治・社会的議題において測定可能な偏りを持ち、その偏りがしばしばシリコンバレーのエリート層の傾向を反映していることを指摘した。

「テック企業はAIをツールだと口を揃えて言うが、ツールの設計者自身に偏見がある。私たちはより透明な意思決定メカニズムを必要としており、AIが『なぜ』そのように言うのかを公衆が知ることができるようにすべきだ」——Campbell Brown

この見解は近年のアルゴリズム監査への呼びかけと呼応する。Brown氏は、食品ラベルのようにAIが出力する内容に「意思決定の出典説明」を付け、ユーザーが推奨や生成結果の論理を理解できるようにすべきだと主張する。

消費者と現実の乖離

Brown氏はもう一つの深刻な問題を指摘した。シリコンバレー内部で議論されているのは「アライメント」「ハルシネーション」「安全性」だが、一般ユーザーが気にしているのは「AIは私を騙していないか」「私の仕事は奪われるのか」「なぜAIの回答は矛盾しているのか」だ。両者にはほとんど接点がない。彼女はテック企業に対し、エコーチェンバーから抜け出し、同業者だけでなく教育者、コミュニティリーダー、規制当局と真の対話を行うよう提言している。

彼女はまた、現在のAI製品の「ブラックボックスフレンドリー」な設計——インターフェースをシンプルで使いやすく見せる一方で複雑さを覆い隠す設計——を批判した。例えば、チャットボットは一見答えを提供しているように見えるが、ユーザーはそれがどの情報源に基づいているか、議論の余地があるか、代替の視点が存在するかを知ることができない。

編集者注:遅すぎた対話

Campbell Brown氏の見解は、現下のAIガバナンスの核心を突いている。OpenAI、Google、Metaなどが競ってより強力なモデルを発表する中、「AIが何を語るか」をめぐる議論は、技術進歩への歓声にかき消されがちだ。実際、過去2年間の複数の調査では、米国成人の6割以上がAIによる誤情報の拡散を懸念していることが示されている。しかし解決策は、技術レベルの「レッドチーミング」や「人間のフィードバックによる強化学習」だけにとどまらず、制度的な参加——ユーザー、市民社会、政府が共同でAIの出力ルール策定に関与すること——がより必要だ。

Brown氏のMeta退社後の役割の変化は象徴的だ。プラットフォームのコンテンツポリシー策定者から、独立した声の擁護者へ。彼女は現在、「AI公開」と名付けた非営利団体の設立を準備しており、AI出力の透明化基準の推進を目指している。これはシリコンバレーが真剣に耳を傾けるべきシグナルかもしれない。

本記事はTechCrunchより翻訳・編集