2026年3月27日 14:14
WikipediaがLLMによる記事生成を原則禁止
3行まとめ
- •WikipediaがLLM使用を原則禁止に
- •校正・翻訳用途は例外として許可
- •内容正確性・編集履歴で違反を特定
詳細
背景
Wikimedia Foundationは、Wikipediaの記事作成・書き換えにおけるLLM(大規模言語モデル)の使用を原則禁止するガイドラインを公式に公開した。LLMが生成する文章には事実誤認や「ハルシネーション(もっともらしい嘘)」が含まれるリスクがあり、百科事典としての信頼性を損なうことへの懸念が背景にある。
内容
新ガイドラインでは、LLMを使った記事の新規作成や既存記事の書き換えを原則として禁止する。一方で、執筆者が自分で書いた文章の校正補助としての利用や、特定のルールのもとで行う他言語版記事の翻訳については例外として認められる。違反の特定にあたっては、生成AIに特有の文体だけを根拠にするのではなく、記事内容の正確性や編集履歴を総合的に確認する方針が示された。これにより、LLMを使用した編集であっても正確な内容であれば一律に排除しない柔軟な姿勢も示している。
今後の影響
Wikipediaは世界最大規模の百科事典であり、そのガイドライン変更はオンライン情報の信頼性に関する議論に大きな影響を与える。LLMを活用したコンテンツ生成が普及する中、信頼性の高い情報源がどのようにAI生成コンテンツと向き合うかの先例となり、他のプラットフォームや組織のポリシー策定にも参考にされる可能性がある。
なぜ重要か
世界最大の百科事典がLLM使用を原則禁止したことで、AI生成コンテンツの信頼性基準に関する議論が加速する。