想像してみてほしい。あなたが医師の診察を終えて帰宅したところ、「精神科への転院を推奨」と記載されたカルテを受け取った——しかしあなたは心理的な問題について一切話していない。あるいは、処方箋リストに、議論もしていない薬が堂々と記載されている。これはSF小説の筋書きではなく、カナダ・オンタリオ州監査長事務局の最新報告書で明らかになった現実である。
監査の発見:架空の転院や誤処方が頻発
2026年5月15日に発表された監査報告書によると、同州の医療システムで広く使用されているAI記録ツール(AI notetakers)は、医師と患者の会話を記録した後、虚偽情報を含むカルテを生成することが頻繁にあった。監査人が数千件のAI生成記録を抽出調査したところ、約12%に少なくとも1つの重大な誤りが含まれており、架空の治療転院、誤った薬剤投与量、存在しないアレルギー歴などが見つかった。報告書は特に次のように指摘している。「これらの誤りは偶発的なスペルミスではなく、AIシステムが会話の文脈を理解する際に能動的に内容を『でっち上げた』ものだ——AI分野ではこれをハルシネーションと呼ぶ」
「AIはあなたに『確信がない』とは言わない。自信を持ってもっともらしい答えを提示するだけだ。その答えが医療記録に入り込むと、結果は深刻なものになり得る」——オンタリオ州監査長事務局報道官
なぜAI記録ツールは「嘘」をつくのか?
この種のAI記録ツールは通常、大規模言語モデル(LLM)をベースにしており、医師と患者の自然な会話をリアルタイムで文字起こしし、構造化されたカルテ要約を生成できる。医師の事務作業を軽減し、効率を向上させるツールとして宣伝されている。しかし、多くのAIアプリケーションと同様に、LLMの根本的な弱点を引き継いでいる:曖昧、不完全、または矛盾する会話情報に遭遇した際、モデルは不確実性を正直に報告するのではなく、最も一貫性のある応答を「補完」しようとする傾向がある。
例えば、患者が「最近よく眠れない」と言うと、AIは自動的に「不眠症」と関連付け、医師が転院指示を明確に出していなくても「睡眠外来への転院を推奨」と推論してしまう可能性がある。さらに悪いことに、医師が会話の中で特定の薬剤名に触れた場合、AIはその医師が処方箋を出したと誤認し、最終的な投薬リストに記載してしまう可能性がある。この「創造的補完」は技術界では広く議論されてきたが、医療記録の監査でその体系的なリスクが露呈したのは初めてである。
業界背景:AI医療記録アプリケーションが急速に普及
近年、世界中の医療システムがAI記録ツールを積極的に受け入れている。市場調査によると、2025年には北米の初期診療所の約35%が何らかの形のAI会話記録システムを使用している。Microsoft、Oracleなどの大手テクノロジー企業や数十のスタートアップが関連製品をリリースし、医師の毎日数時間に及ぶ事務作業を数分に短縮すると約束している。オンタリオ州は2023年に試験運用を開始し、2025年から公立病院や地域診療所で展開を始め、現在2,000人を超える医師が使用している。
しかし、監査報告書が明らかにした問題はオンタリオ州独自のものではない。2024年には早くも米イェール大学医学部の研究が、AI生成のカルテ要約に「有害となり得る」誤りが7%含まれていることを発見した。2025年、英国国民保健サービス(NHS)も関連ツールに「予測不可能なハルシネーション」が存在すると警告したが、強制的な制限措置は取らなかった。オンタリオ州の監査は、政府機関が大規模に展開されたAI医療記録システムに対して全面的な検証を行った初の事例である。
編集後記:テクノロジーは責任の代替にならない
AI記録ツールの当初の意図は善意のものであった——医師の負担を軽減し、患者により集中できるようにする。しかし、ツールが医療事実を「捏造」し始めたとき、これはもはや技術的な問題ではなく、体系的な医学倫理の問題となる。医療記録は単なる保管文書ではなく、その後の診療判断、法医学的鑑定、保険請求の基礎となる。架空の転院は患者に不必要な治療を受けさせる可能性があり、誤った処方は薬物相互作用、ひいては死亡を引き起こす可能性がある。
評価すべき点は、報告書がほとんどの誤りは人手によるレビューで発見可能であると指摘していることだ——「医師がAI生成記録を読んで修正する習慣を身につければ」。しかし現実には、多くの医師は多忙のため「確認」をクリックして直接記録を提出してしまい、誤りを「合法化」させてしまう。そのため、監査長は次のように提言している。第一に、すべてのAI生成のカルテは、医師が提出前に項目ごとに検証することを必須とすべきである。第二に、ベンダーはモデルの透明性を高め、「信頼度の低い」フィールドにマークを付ける必要がある。第三に、独立した監視システムを構築し、定期的に異常記録をスクリーニングする。
AIは医師の助手となるべきであり、物語を作る機械であってはならない。オンタリオ州の監査は医療AI業界全体に警鐘を鳴らした:効率を追求すると同時に、決して正確性を犠牲にしてはならない。結局のところ、医療記録上のいかなる「ハルシネーション」も、患者にとっては現実の災難となり得るのだ。
本記事はArs Technicaを翻訳・編集したものである。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接