2026年4月23日 09:00
OpenAI GPT-5.5 バイオ安全性バウンティ
GPT-5.5 Bio Bug Bounty
3行まとめ
- •OpenAIがGPT-5.5のバイオ安全性バグバウンティを開始
- •生物兵器悪用リスクのジェイルブレイク発見が対象
- •最大2万5000ドルの報酬を用意
詳細
概要
OpenAIは、GPT-5.5モデルを対象としたバイオ安全性特化型のバグバウンティプログラム「GPT-5.5 Bio Bug Bounty」を開始した。このプログラムは、生物兵器など生物学的リスクに関連するユニバーサルジェイルブレイク(安全制限を突破する汎用的な手法)を発見・報告するレッドチーミングチャレンジであり、最大2万5000ドルの報酬が設定されている。
背景と目的
レッドチーミングとは、AIシステムの脆弱性を意図的に探し出すセキュリティ手法である。AIが生物学的危険情報の提供や兵器製造支援に悪用されるリスクは、AI安全性の中でも特に深刻な課題とされており、OpenAIは外部の研究者や専門家を報酬で動機付けることで、社内だけでは発見困難な脆弱性の洗い出しを図っている。
今後の影響
OpenAIが最新モデルGPT-5.5において生物安全性の脆弱性を公開募集する取り組みは、AI開発における安全性評価の透明性を示す事例となる。外部知見を活用した安全強化のアプローチは、今後の主要AI企業の安全基準策定にも影響を与える可能性がある。
なぜ重要か
OpenAIが外部研究者を報酬で動機付けてGPT-5.5のバイオ安全性脆弱性を募集することで、AI安全評価の透明性が高まる。
元記事を読む — OpenAI Blog