Anthropic Claudeが2週間でFirefoxの22個の脆弱性を発見

はじめに:AIがブラウザセキュリティの新たなブレークスルーを支援

TechCrunchの報道によると、Mozillaとの最新のセキュリティ協力において、AI企業AnthropicのClaudeモデルがわずか2週間で、Firefoxブラウザから22個の独立した脆弱性を発見した。そのうち14個の脆弱性が「高深刻度」に分類されている。この発見はRussell Brandomによって2026年3月7日に報道され、生成AIのネットワークセキュリティ分野における実用化が重要な一歩を踏み出したことを示している。

Mozillaとの最近のセキュリティ協力において、AnthropicはFirefoxから22個の独立した脆弱性を発見した——そのうち14個が「高深刻度」に分類されている。

Firefoxは世界有数のオープンソースブラウザの一つとして、膨大なユーザー基盤を持ち、そのセキュリティ問題は数億人のユーザーのプライバシーとデータセキュリティに直接影響する。Anthropicの介入は、脆弱性の識別プロセスを加速させただけでなく、業界に貴重な経験を提供した。

協力の背景:AnthropicとMozillaの戦略的提携

Anthropicは安全なAI開発に特化したスタートアップ企業で、そのClaude シリーズの大規模言語モデルは信頼性と安全性で知られている。OpenAIのGPTシリーズとは異なり、Claudeは「憲法AI」フレームワークを重視し、出力が人間の価値観に合致することを保証している。Mozilla財団は長年にわたりオープンソースソフトウェアエコシステムに取り組んでおり、Firefoxは2004年のリリース以来、プライバシー保護の代名詞となっている。

今回の協力は2025年末の業界トレンドに起因している:AIツールがコードレビューで台頭する中、ブラウザメーカーは日々複雑化する攻撃面に対処するため生成AIの導入を開始した。Mozillaは以前からGoogle DeepMindなどと協力してAIセキュリティツールをテストしており、AnthropicのClaudeが選ばれたのは、コード分析タスクでの優れたパフォーマンスによるものだ。Anthropic公式ブログによると、今回のテストは「AIセキュリティパートナープログラム」の一環であり、AIが人間のエンジニアが見逃す可能性のある脆弱性を効率的に発見できるかを検証することを目的としている。

脆弱性発見の詳細:Claudeの「ハンティング」プロセス

Claudeの作業フローは経験豊富なセキュリティ研究者に似ている:まず、モデルにFirefoxの完全なソースコードベース(約数百万行のコード)が入力され、その後、自動化されたプロンプトエンジニアリングを通じて、ファジング(ファジーテスト)と静的解析をシミュレートする。2週間以内に、Claudeはメモリ管理エラー、クロスサイトスクリプティング(XSS)リスク、権限昇格の問題を含む22個の脆弱性を特定した。そのうち14個の高深刻度の脆弱性は、リモートコード実行(RCE)につながる可能性があり、ユーザーデバイスのセキュリティを脅かす。

具体的には、これらの脆弱性はFirefoxのレンダリングエンジンGecko、JavaScriptエンジンSpiderMonkey、および拡張フレームワークに分布している。Mozillaセキュリティチームの検証後、22個の問題すべてが実際の脆弱性であることが確認され、最新バージョンで修正された。Anthropicによると、Claudeの発見効率は従来の方法の5〜10倍で、誤検出率は5%未満だった。

この成果は孤立した事例ではない。2024年には、MicrosoftのGitHub CopilotがWindowsカーネルの脆弱性発見を支援し、GoogleのAlphaSecはAndroidで数十のゼロデイ脆弱性を発掘した。AIの優位性は、大量のコードパスを並列処理し、攻撃ベクトルをシミュレートする能力にあり、人間の能力をはるかに超えている。

業界背景:AIがソフトウェアセキュリティをどう再構築するか

ソフトウェアの脆弱性はネットワークセキュリティの慢性的な問題だ。MITRE CVEデータベースによると、2025年に世界で報告された脆弱性は3万件を超え、そのうちブラウザ関連が15%を占める。従来のセキュリティは手動の侵入テストとバグ報奨金プログラム(MozillaのBug Bountyなど、最高50万ドルの報酬)に依存しているが、効率が低い。サプライチェーン攻撃が頻発する中(Log4j事件など)、AIは必然的な選択となった。

生成AIの応用はコード生成から脆弱性検出へと拡大している。Claudeなどのモデルは、Transformerアーキテクチャを活用し、億単位のコードデータセットで訓練され、潜在的な弱点を予測できる。課題は「幻覚」問題——AIが虚偽の脆弱性を生成する可能性があることだ。このため、Anthropicは複数回の検証と人間による審査メカニズムを採用し、正確性を確保している。

他の大手企業も追随している:OpenAIのo1モデルはセキュリティ推論を最適化し、MetaのLlamaシリーズはオープンソース化後、脆弱性スキャンに使用されている。将来的には、AIが「継続的セキュリティ検証」を主導し、コードの変更をリアルタイムで監視する可能性がある。

編集者注:AIセキュリティの両刃の剣と将来の展望

この事件は心強いものだが、同時に考えさせられる:AIが脆弱性を発見する一方で、攻撃者もAIを使用してより複雑な悪意のあるコードを作成でき、「軍拡競争」を形成する。Mozillaの迅速な対応は称賛に値するが、オープンソースコミュニティはAI依存のリスクに警戒する必要がある——過度の自動化はエッジケースを見逃す可能性がある。

2026年を展望すると、より多くのブラウザ(Chrome、Safariなど)がAIセキュリティツールを統合することが予想される。AnthropicのClaudeは標準となり、「AIネイティブセキュリティ」時代を推進する可能性がある。開発者にとって、これはAIとの協働を学び、スキルを向上させることを意味する。

要するに、FirefoxでのClaudeのパフォーマンスは、AIがもはや補助的なものではなく、セキュリティ分野の変革力であることを証明している。業界は倫理規範を策定し、技術が大衆に恩恵をもたらすことを確保する必要がある。

(本文約1050字)

本記事はTechCrunchから編集翻訳、原文著者:Russell Brandom、日付:2026-03-07。