5月12日、Ars Technicaの記者が「Amazon employees are "tokenmaxxing" due to pressure to use AI tools」と題した記事を公開した。Amazon社内でAIツール使用のプレッシャーによって従業員が「tokenmaxxing」と呼ばれる行動を取っている現象が明らかになり、企業AI導入の予期しない副作用として注目を集めている。
2024年以降のGenerative AI企業導入ブームで、多くの企業がAI活用促進のため使用統計の可視化を導入している。しかし、本来の生産性向上ではなく数値向上のためのゲーム化を招くリスクが、大手テック企業でも現実となった。
「Tokenmaxxing」— 統計ゲーム化の実態
「Tokenmaxxing」とは、実際の生産性向上とは無関係に、AIツールのトークン使用量を人為的に増やして社内統計や順位表で上位に入ろうとする行為だ。この現象はAmazonに限らず、Meta社でも同様の行動が確認されており、企業AI導入における新たな課題として浮上している。
Amazonは当初、従業員のAI使用状況をチーム全体の統計として公開していたが、こうした問題を受けて最近アクセスを制限し、本人とマネージャーのみが閲覧できるよう変更した。事情に詳しい関係者によると、マネージャーはトークン使用量をパフォーマンス測定に使わないよう推奨されているという。
Amazon独自の自動化ツール「MeshClaw」
一部のAmazon従業員が統計向上のために使用しているMeshClawというツールは、内部文書によると以下の業務自動化機能を提供する:
- コードデプロイメントの監視と開始: CI/CDパイプラインとの連携
- メールの自動トリアージ: 重要度に応じた分類と優先順位付け
- Slackなどコミュニケーションツールとの連携: 会議スケジュールや通知管理
同社は声明で、このツールが「数千人のAmazon社員が毎日反復的なタスクを自動化することを可能にしている」と述べ、チームがAIツールを実験・採用することを「エンパワー」する一例だとしている。
内部文書では、このAIエージェントについて興味深い表現で説明されている:
「学習した内容を統合するために夜間に夢を見て、会議中にデプロイメントを監視し、起床前にメールをトリアージする」
この擬人化された表現は、AIエージェントが24時間体制で業務を支援する様子を示している。
セキュリティリスクへの現場の懸念
複数のAmazon従業員が、ユーザーの代わりに自律的に行動する権限を与えられたAIツールのセキュリティリスクについて懸念を表明している。特に、エージェントがエラーを起こしたり、予期しない行動を取ったりする可能性への不安が大きい。
ある従業員は以下のようにコメントしている:
「デフォルトのセキュリティ体制は恐ろしい。勝手に行動させるつもりはない」
Amazonは「顧客のための生成AIの安全、セキュア、責任ある開発と展開にコミットしている」と回答しているが、現場レベルでの不安は完全には払拭されていない状況だ。
企業AI導入戦略への教訓
この現象は、企業のAI導入戦略における重要な教訓を提示している。マッキンゼーの調査によると、AI導入企業の多くが使用統計の可視化を重視しているが、MetaやAmazonといった大手テック企業でさえ、人的要因の複雑さに直面している。
真の価値創出とメトリクス最適化のバランスをどう取るかが、今後の企業AI戦略における重要な課題となるだろう。単純な使用量指標ではなく、実際のビジネス成果に基づく評価体系の構築が求められている。
詳細はAmazon employees are "tokenmaxxing" due to pressure to use AI toolsを参照していただきたい。