2026年5月15日 02:28
医師のAI議事録ツール、誤記頻発と監査指摘
Your doctor’s AI notetaker may be making things up, Ontario audit finds
3行まとめ
- •医師向けAI議事録ツールで誤記
- •架空の紹介や誤処方が発生
- •オンタリオ州の監査で判明
詳細
背景
カナダ・オンタリオ州の監査により、医師が診察記録の作成に使用しているAI議事録ツール(AIスクライブ)に、深刻な誤記が頻発していることが判明した。医療現場では事務作業の負担軽減を目的にAI議事録ツールの導入が進んでいるが、その正確性に疑問符が付いた形となる。
内容
監査で確認された誤りには、実際には行われていない治療への紹介(架空のセラピー紹介)や、誤った処方内容の記載などが含まれる。これらはAIによる「幻覚(ハルシネーション)」と呼ばれる現象で、診療内容を正確に書き起こすべき場面で事実と異なる情報を生成してしまうものだ。
今後の影響
医療分野におけるAI活用は急速に拡大しているが、患者の安全に直結する記録の正確性は最優先事項である。今回の監査結果は、AI議事録ツールを導入する医療機関に対して、出力内容の検証プロセスの強化や、ベンダー側の精度向上を求める動きにつながる見込みだ。
なぜ重要か
医療現場のAI活用で患者安全に関わる誤記が公的監査で確認され、業務利用時の検証体制の必要性を示す事例となる。
元記事を読む — Ars Technica AI