5月5日、Robert Glaserが「When everyone has AI and the company still learns nothing」と題した記事を公開した。
多くの企業がGitHub CopilotやChatGPT Enterprise、ClaudeといったAIツールを全社導入する中、「従業員がAIを使いこなしているのに、なぜか会社全体の成果が上がらない」という現象が起きている。この記事では、AI導入が組織全体に広がっても企業が本質的な学習を得られない構造的問題について分析している。
個人の生産性向上が組織の成果に直結しない現実
Glaserは、AI研究者のEthan Mollickの指摘を引用し、個人レベルでのAI活用による生産性向上が、自動的に組織レベルの成果向上にはつながらないという根本的な問題を提起している。
2024年から2025年にかけて、多くの企業でAIツールの導入が加速している。各チームには公式な研修資料が想定するよりもはるかに進んだ活用をしている人材がいる。しかし、この活用の多くは見えない場所で行われており、経営陣が把握できるのはライセンス使用状況や簡単な調査結果程度に留まる。
「混沌とした中間フェーズ」で起きている現象
Glaserは現在の状況を「messy middle」(混沌とした中間フェーズ)と呼んでいる。この段階では、AI活用が組織全体に広がる一方で、その使い方は不均一で、部分的に隠れており、比較が困難で、組織的な学習にまだつながっていない。
具体的には、同じ企業内で以下のような状況が同時に発生する:
- あるチームはCopilotを単純な自動補完として使用
- 別のチームはClaudeを厳密なテストと共に活用
- プロダクトオーナーがFigmaでのモックアップ作成の代わりに実際のソフトウェアのプロトタイプを作成
- シニアエンジニアがAIエージェントに根本原因分析を委任し、1時間で解決(従来なら2週間必要)
- ジュニアエンジニアが洗練されたコードを生成するが、システムに組み込まれた設計上の前提を理解していない
採用の単位がもはや組織でも、チームでさえもなく、「作業内のループ」レベルになっている点が、この混沌を生み出している。
従来の変更管理手法では対応できない理由
従来の企業は、実践コミュニティや勉強会、チャンピオンネットワーク、月次デモなどの既存の仕組みでAI導入を管理しようとする。しかし、興味深いAI活用は次のコミュニティミーティングを待たない。それはコードレビュー、営業提案、研究タスク、プロダクトプロトタイプ、本番インシデント対応の中で発生する。
重要な学習がベストプラクティススライドになるまでには、しばしば本質的な部分が失われている。価値を生み出したのは摩擦の部分—欠落したコンテキスト、失敗したテスト、奇妙なAPI動作、エージェントが意味不明な出力をした瞬間—だからである。
Scrumが前提とする「高コストなイテレーション」の終焉
Glaserは、現代のソフトウェア開発プロセスの多く(スプリント計画、見積もり、スタンドアップ、ユーザーストーリー、チケット整理)が、人間のイテレーションコストが高かった時代の制約の下で設計されたものだと指摘する。
アジャイル開発が登場した2000年代初頭と比べ、AIエンジニアリングは経済性を根本的に変化させている。より多くの選択肢を具現化可能にし、チームが意図からプロトタイプ、評価へとより迅速に移行できるようにする。制約が実装から、意図、検証、判断、フィードバックへと移行している。
多くの組織は20年間「アジャイル」を名乗りながら、アジャイルが除去すべきだった組織の反射的行動を温存してきた。今やAIが真のアジリティをより現実的なものにしているのに、システムは依然として2週間のスプリントコミットメントや引き継ぎ文書を求めている。
「Loop Intelligence」という新たな学習の仕組み
Glaserは、企業が混沌とした中間フェーズで必要とする3つの能力を挙げている:
Agent Operations:どのエージェントとAIツールが動作し、どのシステムにアクセスでき、どのデータを見ることができ、どのアクションに承認が必要かを管理
Loop Intelligence:どのAI支援ループが実際に学習を生み出し、どれが停滞し、どれが劣化するかを把握。エージェントがレバレッジを創出する場所とサイドクエストに迷走する場所を特定
Agent Capabilities:有用な機能を、3つのモノリシックなエージェントですべての作業をカバーするという幻想なしに組織全体に配布
これらの要素が交わる場所を、Glaserは「Loop Intelligence Hub」と呼んでいる。これは実際の作業ループ(タスク、プロンプト、仕様、レビュー、シナリオ)を監視し、その信号を組織が行動できる形(イネーブルメントバックログ、機能レーダー、投資概要)に変換するシステムである。
従業員監視に陥ってはならない
このシステムが従業員のスコアリングに変質すれば、すべてが台無しになるとGlaserは警告している。人々が「十分にAIを使っているか」を測定されていると感じれば、信号をゲーミングするようになる。実験が生産性の期待値になると信じれば、実験を隠すようになる。
有用な問いは「誰が十分にAIを使っているか?」ではなく「AIが組織が学習できる形で作業をどこで変化させたか?」である。
次の競争優位は学習速度で決まる
AI導入の第一段階はアクセスに関するものだった。しかし、フロンティアインテリジェンスへのアクセスはレンタル可能である。運用制御と組織学習は同じようにレンタルできない。
次の優位性は学習速度にある。誰がより速く真のパターンを発見するか?個人からチーム、組織能力へと発見を移行するのは誰か?エージェントループにバックプレッシャーを構築してエージェントが迷走しないようにするのは誰か?
Glaserは、この変化を理解するためには、ベンダーやコンサルタント、AI研究所からの決定的な導入プレイブックを待つのではなく、実際の作業を計測し、混沌とした学習を共有し、他者がそれを繰り返し改善できるようにすることが必要だと結論づけている。
詳細はWhen everyone has AI and the company still learns nothingを参照していただきたい。