1月22日、海外のテクノロジーメディアArs Technicaが「Wikipedia volunteers spent years cataloging AI tells. Now there's a plugin to avoid them.」と題した記事を公開した。
この記事では、WikipediaボランティアがAI投稿を排除するために蓄積してきた「AI特有の文章表現」のリストが、皮肉にもAIの文章をより人間らしく修正するためのガイドラインとして活用されている実態について詳しく紹介されている。

以下に、その内容を紹介する。
排除のための知恵が「擬態の教科書」へ
Wikipediaのエディターたちは、百科事典の信頼性を守るため、AIが生成したコンテンツに特有のパターンや癖を長年かけて特定し、詳細なカタログを構築してきた。しかし現在、この「検知のための武器」を逆手に取り、AIの文章から「AI臭さ」を抹消する「Humanizer」というツールが登場している。
このツールは、Wikipediaが定義した「AIらしさ」を回避するためのプロンプトをAI(Claudeなど)に実行させる。その核心は、AIが得意とする「大げさな装飾」をあえて排除し、徹底的に平易な表現に落とし込むことにある。
記事では、以下のような変換例が示されている。
- 変換前(AI特有の誇張が含まれる表現):
「カタルーニャ統計局は1989年に正式に設立され、スペインにおける地域統計の進化における極めて重要な瞬間となった。」 - 変換後(Humanizerによる修正後):
「カタルーニャ統計局は、地域統計を収集・公表するために1989年に設立された。」
「人間らしさ」をめぐる逆説
この現象が示唆しているのは、AIがウェブ上の洗練された執筆物を学習し尽くした結果、「プロのような完璧な文章」こそがAIの証拠となってしまったという逆説的な状況だ。
現在のAI検知において直面している課題は、主に以下の3点に集約される。
- スキルの転用: Humanizerのように、AI自身に「AI特有の癖」を避けさせる指示を与えれば、既存の検知アルゴリズムは容易に無力化される。
- プロの執筆スタイルとの重複: 熟練したライターが構成上、ダッシュ記号(—)などの特定の記法を好んで使用した場合、AI検知器がそれを「AI生成物」と誤認するケースが頻発している。
- 10%の誤検知リスク: 2025年の研究によれば、LLMのヘビーユーザーであっても約10%の確率で人間による執筆を「AI製」と誤認する。この「偽陽性」は、質の高いコンテンツが不当に排除されるリスクを孕んでいる。
表面的な検知から「実体」の検証へ
Wikipediaの有志が積み上げた「AIを特定するための指標」が、結果としてAIをより巧妙に訓練するための教師データとして機能してしまった 事実は、テキストのスタイルに基づく検知手法の限界を浮き彫りにしている。
特定の単語やフレーズをブラックリスト化する手法は、AI側がそのリストを読み込み、回避策を講じた瞬間に無力化する。今後は、文章の表面的な言い回し(スタイル)を追うのではなく、記述されている内容の真実性や、情報の出所といった「実体」を検証するアプローチへと、防衛の主眼を移さざるを得ないだろう。
詳細はWikipedia volunteers spent years cataloging AI tells. Now there's a plugin to avoid them.を参照していただきたい。