2026年4月22日 18:18
Anthropic Mythosに不正アクセス、危険AIが流出
Anthropic’s most dangerous AI model just fell into the wrong hands
3行まとめ
- •Anthropic Mythosに不正アクセス発生
- •外部委託業者が非公開フォーラムに提供
- •危険なサイバーAIの管理体制に疑問
詳細
背景
AnthropicはMythos Previewというサイバーセキュリティ特化のAIモデルを開発し、NSAなど限定機関のみにアクセスを提供していた。公開済みのClaudeより強力とされる非公開モデルであり、同社自身がこのモデルの悪用危険性を認識したうえで、厳格なアクセス管理のもとで運用してきた経緯がある。
事件の経緯
Bloomberg報道によると、Anthropicの外部委託業者の一員が、プライベートなオンラインフォーラムのメンバーたちにMythosへのアクセスを提供していたことが判明した。不正アクセスには業者の認証情報と「一般的なインターネット調査ツール」が組み合わせて使用されており、Anthropicは「少数の未認可ユーザーがアクセスした」という事実を認めた。
今後の影響
サイバー攻撃を加速させる可能性があると指摘されているMythosが、意図せず第三者の手に渡ったことは、AI安全管理における深刻なリスクだ。外部委託業者を介したアクセス権限の管理が不十分だったことが今回の原因とみられ、強力なAIシステムを開発・運用する企業全体にとってサプライチェーンセキュリティ強化が急務となっている。
なぜ重要か
危険と評されるサイバーセキュリティAIが外部委託業者経由で不正流出し、AI安全管理の脆弱性が露呈した事案だ。
元記事を読む — The Verge AI