2026年4月2日 08:00
Meta、脳活動予測AI「TRIBE v2」を発表
3行まとめ
- •Metaが脳活動を予測するAI基盤モデルを発表
- •動画・音声視聴時の神経反応をAIで再現
- •神経科学研究の効率化に貢献する技術
詳細
背景
Metaの研究者らが学術論文「A foundation model of vision, audition, and language for in-silico neuroscience」を発表し、人間の脳活動を予測するAI基盤モデル「TRIBE v2」を公開した。従来の神経科学研究では、被験者にコンテンツを視聴させながら脳波やfMRIなどで脳反応を計測する実験が必要で、多大なコストと時間を要していた。
内容
TRIBE v2は、視覚・聴覚・言語の3つのモダリティを統合的に処理できる基盤モデルであり、動画や音声コンテンツを入力として与えると、それを人間が視聴した際に生じると推定される脳活動パターンをAIが予測・出力する仕組みを持つ。「in-silico(コンピュータ上の)神経科学」と呼ばれるアプローチで、実際の実験を行わずにコンピュータ上で脳反応をシミュレートすることを目指している。視覚・聴覚・言語という複数の感覚モダリティを一つのモデルで扱える点が技術的な特徴となっている。
今後の影響
この技術が実用化されると、新薬開発や認知科学研究における実験コストの大幅な削減が見込まれる。また、コンテンツが人間の認知や感情に与える影響をAIで事前評価できる可能性があり、メディアや広告分野への応用も研究者らは視野に入れている。一方で、脳反応の予測精度や倫理的な課題については今後の検証が必要な段階にある。
なぜ重要か
AIで脳反応を予測する技術は神経科学研究の効率化につながる。医療・認知科学分野でのAI活用の新事例として注目される。