8月1日、海外のテクノロジーメディアArs Technicaが「Developer survey shows trust in AI coding tools is falling as usage rises」と題した記事を公開した。この記事では、開発現場でAIコーディングツールの利用が急増する一方で、その精度や信頼性への評価が低下している現状について詳しく紹介されている。

Stack Overflowが4万9,000人のプロフェッショナル開発者を対象に実施した最新調査によれば、2025年時点で5人中4人の開発者がAIツールを業務に組み込んでいるという。GitHub CopilotやCursorといった大規模言語モデル(LLM)ベースの支援ツールは急速に普及しており、「開発者にとって有用」という点では大きな異論はない。しかし一方で、AIの精度を信頼する割合は過去の40%から29%に低下しており、利用拡大と信頼低下が同時進行している構図が浮かび上がった。
最大の不満点として最も多く挙がったのは、「ほぼ正しいが微妙に間違っているAIの解答」で、45%がこれを問題視している。明確に誤っていれば修正しやすいが、「一見正しそう」なコードは潜在的なバグを紛れ込ませ、発見と修正に時間を要する。この傾向は、特にAIの提案を過信しがちなジュニア開発者に顕著で、想定外の不具合を埋め込みやすい。
その結果、 3分の1以上の開発者が「AI起因の問題解決のためにStack Overflowを訪れている」 と回答した。つまり、AIが提示したコードを採用したことで不具合が生じ、最終的には人間の知見に頼らざるを得ないケースが多いということだ。
記事では、この問題が技術的な限界と密接に関わっていることも指摘されている。推論能力を最適化した新しいモデルが登場しても、この「ほぼ正しいが完全ではない」特性は予測ベースの生成技術の構造的な宿命であり、完全に解消される可能性は低いとされる。
AIツールは今後も開発効率を高める強力な手段であり続けるが、その適用範囲や信頼性の線引きは依然として模索段階にある。開発者とマネージャーの双方にとって、今後はツールの精度を盲信せず、AIの提案を常に検証する運用プロセスが重要になるだろう。
詳細はDeveloper survey shows trust in AI coding tools is falling as usage risesを参照していただきたい。