2月4日、The Registerが「GitHub ponders kill switch for pull requests to stop AI slop」と題した記事を公開した。この記事では、AIが生成した粗悪なコード、通称「AI slop(AIのゴミ)」がオープンソースの善意を食いつぶしている現状と、それに対するGitHubの苦渋の決断について詳しく紹介されている。

以下に、その内容を紹介する。
氾濫する「AIのゴミ」:オープンソースの危機
かつてオープンソースの世界は、開発者の情熱と善意に基づく「社会的契約」によって成り立っていた。しかし今、その根幹がAI生成の低品質なコントリビューション、いわゆる「AI slop」によって揺るがされている。
GitHub Copilotを推進してきたGitHub自身が、その普及によって引き起こされた「ゴミの山」に頭を抱えている。プロダクトマネージャーのCamilla Moraes氏は、メンテナーたちがプロジェクトの品質基準を無視し、提出直後に放置されるAI生成のプルリクエスト(PR)の処理に、膨大な時間を奪われている現状を深刻視している。
その惨状は数字にも表れている。Voiceflowのインフラ責任者であるXavier Portilla Edo氏によれば、AIによって作成されたPRのうち、正当で基準を満たしているものは「10件中1件」に過ぎないという。メンテナーは、9割のゴミの中から1割の価値あるコードを拾い上げるという、極めて非効率な作業を強いられているのだ。
メンテナーを襲う「6つの絶望」
MicrosoftのJiaxiao (Joe) Zhou氏ら現場のメンテナーによれば、AI生成コードは単なる「質の低さ」を超え、開発文化そのものを破壊しつつある。彼らが抱く懸念は、以下の通りだ。
- 「善意の前提」の崩壊: これまでは「作者はコードを理解している」という信頼があった。今は、内容すら把握していないAI頼みの投稿を疑うところから始めなければならない。
- 「もっともらしい嘘」の罠: 構造は一見完璧に見えるが、中身は論理的に破綻している「AIしぐさ」が、レビューの難易度を劇的に跳ね上げている。
- 終わりのない「1行ずつの検閲」: AIは一瞬で大量のPRを生成するが、人間は依然として1行ずつ確認するしかない。この非対称性がメンテナーを疲弊させる。
- 「理解なき大規模変更」への恐怖: 仕組みを理解していない人間が、AIを使って大規模な変更を平然と送りつけてくる。それを承認するメンテナーの心理的負担は計り知れない。
- 「コード以前」のプロファイリング: 今やレビューはコードの良し悪しだけでなく、「この投稿者は人間か? 自分の意志で書いているのか?」を見極める心理戦へと変貌した。
- 効率化の皮肉: AIが開発を加速させるはずが、実際にはレビューというボトルネックを肥大化させ、開発効率はむしろ低下している。
実際、curlの創設者であるDaniel Stenberg氏は、AI生成のバグ報告の処理に限界を感じ、長年続けてきたバグバウンティプログラムを停止せざるを得ない状況に追い込まれた。
GitHubが検討する「聖域」への介入
この事態を受け、GitHubはプルリクエストという「オープンな交流の場」に対して、極めて強力な制限、いわば「キルスイッチ」の導入を検討し始めている。
- PR機能の完全停止オプション: 低品質な投稿を防ぐため、プロジェクト全体でPR受付を凍結、または信頼できる協力者のみに制限する。
- 「AIスロップ」の不可視化: メンテナーの視界からAI生成PRを即座に排除し、削除できる権限。
- AIによるAIの検閲: AIベースのトリアージツールを導入し、人間が触れる前に「ゴミ」をフィルタリングする。
- AI使用の強制開示: 投稿がAIによるものか、人間によるものかを明確にするメカニズムの構築。
Mozilla.aiのNathan Brake氏やGoCDのChad Wilson氏は、AIによる透明性のない投稿が「社会的信頼の浸食」を招き、オープンソースを特別なものにしていた「コミュニティ」という価値を消し去ることを危惧している。
結論:AIとの共生の代償
GitHubは、開発の民主化を謳いAIを推進してきた。しかしその結果、かつての「ソーシャルコーディング」は、正体不明のAIボットと戦う「終わりのないモグラ叩き」に変質しつつある。今回検討されている対策は、オープンソースの自由さを守るための、苦肉の策と言えるだろう。
詳細はGitHub ponders kill switch for pull requests to stop AI slopを参照していただきたい。