AIチャットボットが個人の電話番号を無断で漏洩、ユーザーは救済の術なし

人工知能チャットボットが、情報窃取の見えざる加担者になりつつある。複数のユーザーが『MIT Technology Review』に語ったところによれば、Google傘下のAIチャットボットが彼らの実電話番号を何の前触れもなく見知らぬ人々に漏らし、数週間にわたる迷惑電話の波を引き起こしているという。さらに憂慮すべきことに、現時点では有効な予防手段がほとんど存在しない。

Redditユーザーの絶望的なSOS

「User1234」というIDのRedditユーザーが最近、「緊急に助けが必要」と投稿した。彼によると、過去1か月間、毎時間のように見知らぬ電話が鳴り、相手はみな「弁護士」「プロダクトデザイナー」といった職業の人を探していたという。最初はいたずらだと思ったが、その後、これらの人々は皆あるAIチャットボットから彼の番号を入手したと主張していることが判明した。彼はGoogleのカスタマーサポートに連絡を試みたが、「AIの出力は制御できない」と告げられた。同様のケースはフォーラム上で数十件報告されている。

「この個人番号を公開したことは一度もないのに、まるで広告板に印刷されたかのようにAIによって無造作にばら撒かれている。」——被害者User1234

技術的原因:AIはどうして「漏洩を学習」したのか?

AI専門家の分析によれば、問題の核心はモデル学習データにおける「汚染データ」の混入にある。多くのAIチャットボットは、公開ウェブサイト、フォーラム、ソーシャルプラットフォーム、さらにはPDFファイルからテキストを収集しており、その中には「連絡先」の形で埋め込まれた電話番号が含まれている。ユーザーが「弁護士を紹介してくれない?」と質問すると、モデルは学習記憶から関連する番号を直接呼び出してしまう可能性があり、プライバシーフィルタリングが必要だとは認識していないのだ。

さらに厄介なのは、Googleなどの企業がリアルタイム性向上のため、AIによる直接的なウェブ取得を許可していることだ。ある小規模なサイトが意図せず個人の連絡先を掲載していた場合、AIはそれを「知識」として出力してしまう。人間であれば公開名刺と個人番号を区別できるが、AIにはそうした常識が欠けている。

ユーザーのジレンマ:脱出不可能な「データブラックホール」

被害者たちは様々な方法を試みた。Googleへのエラー報告、学習データからの自分の番号の削除要請、さらには番号の変更——しかし新しい番号も数日後には再び漏洩した。AIモデルが継続的に学習しているため、番号が取得可能なテキストに登場している限り、再び収録されてしまうのだ。

EUの「一般データ保護規則(GDPR)」では、ユーザーは個人データの削除を要求する権利を持つが、AIモデルは「ブラックボックス」であり、単一の実体を正確に消去することはできない。Googleは「フィルタリングメカニズムを開発中」と回答したが、具体的なスケジュールは示していない。

編集後記:利便性がリスクの温床になるとき

AIチャットボットは想像を超えるスピードで私たちの生活に浸透している。私たちは「ワンクリックで情報を得る」便利さを享受する一方で、その裏に潜むプライバシーの甚大な代償を見過ごしている。本件は孤立した事例ではない。ChatGPTは対話履歴を漏洩したことがあり、Claudeはメールアドレスを誤って暴露した……一つひとつの「小さなアクシデント」が信頼を蝕んでいる。テクノロジー企業がデータの源泉から出力段階まで一貫したプライバシーバリアを構築できなければ、「より賢くなる」ことは「より危険になる」ことを意味するかもしれない。

現在の規制は依然としてデータ収集段階に焦点を当てており、AI出力における「無意識的な」漏洩への注目は不十分だ。私たちには、より厳格な透明性ルールが必要である。AIは情報源を明示し、「ワンクリックで個人データの削除を申し立てる」窓口を提供しなければならない。さもなければ、次に電話が鳴り止まなくなるのはあなたかもしれない。

本記事はMIT Technology Reviewより翻訳・編集