10月31日、OpenAIはセキュリティ向上のためのAIエージェント「Aardvark(アードバーク)」を発表した。AardvarkはGPT-5を中核に据え、開発チームやセキュリティチームがソースコード中の脆弱性を発見・検証し、修正まで支援する自律的なエージェントである。提供形態はプライベートベータで、現場での検証を通じて精度と運用性の向上を図るとしている。
Aardvarkは、リポジトリ全体を継続的に解析し、脆弱性の有無、悪用可能性、重大度の優先度付けを行い、対象箇所に対するパッチ案を提示する。従来のファジングやソフトウェア構成解析(SCA)といった手法に依存せず、LLMによる推論とツール実行を組み合わせ、人間のセキュリティ研究者と同様に「コードを読み、テストを書き・実行し、補助ツールを使い、根拠を説明する」流れで脆弱性を洗い出す点が特徴である。GitHubやOpenAI Codexと連携し、既存の開発フローに組み込める設計だ。
Aardvarkのパイプラインは多段で構成され、各段で説明可能性と実用性を意識した設計になっている。
- Analysis:リポジトリ全体を俯瞰し、プロジェクトのセキュリティ目標や設計に基づく脅威モデルを生成する。
- Commit scanning:新規コミットをリポジトリ全体・脅威モデルと突き合わせて差分解析する。初回接続時は履歴も遡及スキャンし、発見事項はコード注釈付きで説明する。
- Validation:候補脆弱性をサンドボックスで実際にトリガーし、悪用可能性を確認する。実施手順を明示し、誤検知の低減を図る。
- Patching:OpenAI Codexと連携して修正パッチを生成し、Aardvark自身も再確認したうえで、レビューとワンクリック適用に供する。
OpenAIは、Aardvarkを数カ月間にわたり社内コードベースと外部アルファパートナーの環境で常時稼働させ、実際に有意な脆弱性の検出に寄与したと述べる。オープンソースの「ゴールデン」リポジトリ群を用いたベンチマークでは、既知および人為的に埋め込んだ脆弱性の92%を検出する再現率を示したという。また、Aardvarkはオープンソースでも多数の脆弱性を発見し、そのうち10件はCVEを取得している。
脆弱性開示体制の面では、OpenAIが2025年6月に公表した「(アウトバウンド)協調的脆弱性開示ポリシー」に沿って、第三者ソフトウェアで見つけた問題を開発者フレンドリーに、持続可能なやり方で連携・開示していく方針だ。Aardvarkの普及に伴い発見件数が増えることを見込み、OSSエコシステムとサプライチェーンの強靭化に資するため、非商用OSSへの無償スキャン提供も計画するという。
背景として、ソフトウェアはもはや全産業の基盤であり、脆弱性はビジネス・インフラ・社会に対するシステミックリスクだ。2024年だけでも4万件超のCVEが報告され、コミットの約1.2%は何らかのバグを導入するという統計が示すとおり、早期検出と迅速な修正の仕組み化が不可欠である。Aardvarkは「コードの進化に寄り添う防御者ファースト」のモデルとして、継続的な監視・検証・修正提案を提供し、開発速度を落とさずにセキュリティ水準の底上げを狙う。提供は選定パートナー向けプライベートベータから始まり、適用先と知見の拡大に応じて段階的に広げる計画だ。
詳細は[Introducing Aardvark: OpenAI’s agentic security researcher]を参照していただきたい。
