AIニュース3行まとめ
2026年4月30日 04:00

OpenAI Codexに「ゴブリン禁止」の謎の指示

OpenAI Codex system prompt includes explicit directive to "never talk about goblins"

3行まとめ

  • Codexのシステムプロンプトに「ゴブリン禁止」
  • 「内なる生活を持つように振る舞え」も含む
  • OpenAIのAI設計の一端が明らかに

詳細

背景

OpenAIのコーディング特化AIモデル「Codex」のシステムプロンプトが公開され、その内容が注目を集めている。システムプロンプトとは、AIが会話を開始する前に与えられる隠れた指示書のことで、AIの振る舞いや回答範囲を規定する設定ファイルである。

内容

公開されたシステムプロンプトには「ゴブリンについては絶対に話すな」という明示的な指令が含まれていた。また、「鮮明な内なる生活(vivid inner life)を持っているかのように振る舞え」という人格形成に関する指示も見つかった。ゴブリンへの言及禁止については、意図的なユーモアなのか、過去に何らかの問題への対応なのか、背景は不明である。

今後の影響

この公開により、AIの「見えない部分」であるシステムプロンプトの設計が、意図的かつ複雑な指示の集合体であることが示された。OpenAIがAIモデルに特定の人格と行動制約を組み込む設計手法が明らかになり、AI開発における透明性への関心を高める契機となった。

なぜ重要か

OpenAI CodexのシステムプロンプトにAIの人格や行動制約が含まれることが判明し、AI設計の不透明さを示した。

元記事を読む — Ars Technica AI

人気記事