米国保健福祉部がPalantir AIツールを導入し、資金提供中のDEIとジェンダー問題を審査

引言:AIツールが政府審査の最前線に進出

米国保健福祉部(HHS)の資金提供審査プロセスにおいて、AI技術がますます重要な役割を果たしています。WIREDの記者Caroline Haskinsによると、2025年3月以降、HHSはPalantirとCredal AIのツールを展開し、‘DEI’(多様性、公平、包容)や‘ジェンダー意識’と関連付けられる資金申請を識別して排除しています。この取り組みは、AIが商業データ分析から政府政策実行へと深く浸透していることを示し、言論の自由、技術の中立性、政治介入に関する激しい議論を呼んでいます。

‘2025年3月以降、保健福祉部はPalantirと新興企業Credal AIのツールを使用し、‘DEI’や‘ジェンダー意識’を支持すると見なされる内容を排除しています。’——原文摘要

PalantirとCredal AI:技術の巨頭と新星

Palantir Technologiesは2003年に設立されたデータ分析会社で、ピーター・ティール(Peter Thiel)らによって創設され、その強力な大データプラットフォームで知られています。同社は米国の情報機関や移民・関税執行局(ICE)にサービスを提供し、移民データの追跡を支援しており、その議論の多さで注目されています。PalantirのGothamとFoundryプラットフォームは、膨大な非構造化データを処理するのが得意で、自然言語処理(NLP)と機械学習アルゴリズムを通じてテキストを迅速にスキャンし、キーワードを抽出し、リスクスコアを生成します。

これに対して、Credal AIは新興のスタートアップ企業で、企業向けAIデータガバナンスとコンプライアンスツールを専門としています。そのプラットフォームは‘データ可観測性’を重視し、AIモデルの入力と出力を監視し、バイアスや違反発言などのセンシティブな内容を検出します。HHSでの応用では、これらのツールが資金提案の自動審査に統合されている可能性があります:アルゴリズムが申請書をスキャンし、‘ジェンダーフルイディティ’や‘ノンバイナリージェンダー’、DEI関連用語を識別し、しきい値を超えると高リスクとマークされます。

業界背景を見ても、AIが政府の資金提供審査において使用されることは目新しいことではありません。2020年には、米国国家科学財団(NSF)が効率を高めるためにAI支援審査を導入しましたが、HHSの今回の導入はより具体的で、特定の意識形態に直接向けられています。これはトランプ政権時代の反DEIの流れと呼応しています。2024年の大統領選挙後、新政権は‘反覚醒’政策を推進し、HHSは連邦の健康分野で最大の資金提供機関として、年間予算が1600億ドルを超えており、AI審査は医学研究や公衆衛生プロジェクトに直接影響を与えます。

DEIとジェンダー意識形態:論争の焦点

DEIイニシアチブは、1990年代の企業多様性運動に由来し、職場の公平を促進することを目的としていますが、近年では米国の保守派の間で批判を浴びており、‘逆差別’と非難されています。同様に‘ジェンダー意識形態’は、トランスジェンダー医療や学校の性教育など、LGBTQ+関連の議題を指すことが多く、これらは資金提供において、心理健康研究やコミュニティプロジェクトに関与する可能性があります。

HHSの担当者は、この措置は納税者の資金を‘非科学的’なアジェンダに使わず、核心的な健康ニーズに集中するためだと述べています。しかし、批判者はこれが政治的浄化であると考えています。AIツールのキーワード一致は効率的である一方で、文脈を無視します:心理健康についての提案が‘ジェンダー多様性’を言及したために拒否され、研究の方向性を歪める可能性があります。

編者注:AIの政治化という両刃の剣

AI技術ニュース編集者として、HHSのこの実践はAIガバナンスの緊急性を示していると考えます。一方で、自動化された審査は効率を向上させ、人為的な偏見を減らすことができますが、アルゴリズムに政治的な偏見が注入されると、分裂を拡大する可能性があります。Palantirの軍事産業の背景は既にプライバシーの懸念を招いており、今回の応用はさらに訴訟を引き起こす可能性があります:資金申請者はAIの決定基準を知る権利があるのか?アルゴリズムの透明性はどのように保証されるのか?

より広い視点では、世界的なAI規制が加速しています。欧州連合のAI法案は高リスクの応用を重点的に取り上げ、米国連邦取引委員会(FTC)はPalantirの反トラスト問題を調査しています。中国はAI倫理において‘アルゴリズム登録’を強調しており、参考にする価値があります。将来、HHSはアルゴリズムの詳細を公開し、‘ブラックボックス’操作を避ける必要があります。さもなければ、技術に対する公共の信頼を損なうでしょう。

潜在的影響と業界の反響

この政策は学術界に影響を与えています。多くの大学の研究チームが、DEI関連プロジェクトの資金提供率が20%以上急減したと報告しています。生物医学分野、例えばがん検診における公平性研究は、DEIに触れるために阻害される可能性があります。一方で、Credal AIなどのスタートアップは多大な利益を得ており、その評価額は政府の注文により急騰するかもしれません。

専門家の意見は分かれています:スタンフォード大学AI倫理教授のTimnit Gebruは、‘AI審査はエコーチェンバー効果を生み出し、イノベーションを抑制する’と警告しています;一方、保守系シンクタンクのヘリテージ財団はその‘理性の回復’を称賛しています。技術的には、類似のツールはトレーニングデータに依存しており、データセットが保守的なナラティブに偏っていれば、出力も不公正になります。

今後、2026年の中間選挙が近づくにつれ、このようなAIの応用は教育省や司法省に拡大するかもしれません。企業は警戒する必要があります:Palantirの株価は注文の増加により5%上昇しましたが、評判リスクも伴います。

結語:イノベーションと価値観のバランス

HHSのAI審査実験は、技術が中立でないことを思い出させます。効率と公平の間でどのようにバランスを取るかが、米国のAI政策の知恵を試されることになるでしょう。

本文はWIREDから翻訳されました。著者はCaroline Haskins、日付は2026年2月3日です。