2026年5月11日 12:34
東芝、異常検知AIの判断理由を波形で可視化する技術を開発
3行まとめ
- •東芝が反事実波形生成技術を開発
- •異常判定の理由をセンサー波形で可視化
- •製造現場でのAI信頼性向上に貢献
詳細
技術概要
東芝は、AIが異常と判定した理由をセンサー波形の違いとして可視化する「反事実波形生成技術」を開発した。説明可能AI(XAI)の手法である反事実説明を時系列波形データに応用し、「もしこの波形がこうだったら正常と判定されていた」という仮想の正常波形を生成する。実際の異常波形との差分を提示することで、異常の原因箇所を直感的に特定できるようにした。
背景と課題
製造業やインフラ監視の現場では、センサーデータの異常検知にAIが広く使われている。しかしAIが「なぜ異常と判断したか」を十分に説明できない場合、現場の技術者が適切な対応判断を下しにくいという課題がある。従来のXAI手法は画像やテキスト向けが中心で、時系列の波形データに対する実用的な手法は限られていた。
意義と展望
本技術は、異常検知AIの判断根拠を波形レベルで可視化し、製造現場やプラント監視での迅速な原因特定と適切な保守対応を可能にする。時系列データに対するXAIの実用的な適用例として、産業分野でのAI活用における透明性を高める成果となっている。東芝は自社の産業向けAIソリューションへの組み込みを進める方針を示している。
なぜ重要か
製造業の異常検知AIで「なぜ異常か」を波形で説明できる技術は、産業現場でのAI活用における信頼性と透明性の向上に直結する。
元記事を読む — AI Watch