7月16日、OpenAIでエンジニアを務めていたCalvin French-Owen氏が「Reflections on OpenAI」と題した記事を公開した。この記事では、3週間前にOpenAIを退職したばかりだという同氏が、OpenAIという急成長企業の内部文化、組織運営、そして同社が目指すAGI開発の最前線がどのような雰囲気で進んでいるかについて詳しく紹介している。
以下に、その内容を紹介する。
急拡大する組織の実情
OpenAIはわずか1年で従業員数を約1,000人から3,000人超へと拡大した。 急拡大に伴い、報告ラインやプロダクトの出荷体制など至るところで「すべてが壊れる」現象が発生している。研究・応用・GTM(Go-To-Market)の各部門はタイムラインも文化も大きく異なり、単一の“OpenAI体験”は存在しない。
Slackに集約されたコミュニケーション
社内コミュニケーションはメールを排除し、すべてSlackで完結する。チャンネル管理が甘いと情報過多に溺れるが、通知を絞れば高い生産性を維持できる。
ボトムアップかつメリトクラシー
ロードマップが後付けで生まれるほどのボトムアップ文化が根付いている。
アイデアの良し悪しと実行力が評価を決め、政治的立ち回りは優先度が低い。リサーチャーは「ミニ経営者」とみなされ、面白い問題を自ら選び、小規模な試作から大規模モデル訓練へと昇華させる。
行動への強いバイアス
「許可より先に行動」 を是とし、類似アイデアが複数チームで独立に走り出すことも珍しくない。方向転換は一瞬で行われるため、正しい情報があれば即座に全リソースを集中投下する。
外部からの注目と機密性
ニュース報道やSNSのリークが社内連絡より速いこともあるほど、 OpenAI社内は監視にさらされ、厳しい秘密主義に守られている。 そのためプロジェクト詳細や財務数値は強固に秘匿される。
高い公共性と安全性へのコミット
最先端モデルをエンタープライズ専用に閉じず、誰でも使えるAPIとChatGPTで広く公開する方針はDNAとして刻み込まれている。
また、AIの安全を担保するチームは 実践的リスク(ヘイト、バイオ脅威、プロンプトインジェクションなど)への対策に多くのリソースを割いている。
技術スタックと開発体制
- モノレポ: ほぼPythonで構成。FastAPI+Pydanticが標準だがスタイルは多様。
- インフラ: Azure上でAKS、CosmosDB、Blob Storageを多用しつつ、一部サービスをRustやGoで実装。
- Meta出身者の流入が顕著で、GraphDBライクなTAO再実装などインフラにその色が反映される。
- CIの不安定さや巨大テストの長時間化など、急拡大ゆえの典型的スケーラビリティ課題も抱える。
Codexローンチの舞台裏
2025年2月、わずか7週間でコード専用エージェント「Codex」を立ち上げた。
- エンジニア8名・研究者4名・デザイナ2名・PM1名・GTM2名という少数精鋭。
- コンテナ実行環境の構築、リポジトリ高速クローン、モデルのコード編集特化微調整などを短期間で実装。
- 公開53日で63万件のPRを生成し、1人あたり約7.8万件という驚異的なインパクトを記録。

詳細はReflections on OpenAIを参照していただきたい。