11月12日、Googleが「Private AI Compute: our next step in building private and helpful AI」と題した記事を公開した。この記事では、Googleが発表した新しいAI処理基盤「Private AI Compute」による、クラウド上でのプライバシー保護型AI処理の仕組みと、その技術的特徴について詳しく紹介されている。

以下に、その内容を紹介する。
プライバシーを保ちながらクラウドの性能を活かす「Private AI Compute」
Googleは長年にわたり、AI技術の発展とともにプライバシー強化技術(PETs: Privacy Enhancing Technologies)の開発を進めてきた。その次のステップとして同社が打ち出したのが「Private AI Compute」である。これはクラウド上のGeminiモデルの計算能力と、端末上での処理に期待されるセキュリティ・プライバシー保証を両立させる新たなAI処理基盤だ。
AIがユーザーの要求を超え、より個人的で予測的な体験を提供するようになるにつれ、高度な推論や計算能力が求められるようになっている。しかし、こうした処理を完全に端末上で行うのは限界がある。Private AI Computeはその課題を解決し、クラウドの処理能力を活用しながらもユーザーの個人データを安全に保護することを目的としている。
Googleは「この仕組みにより、より高速で有用な応答を実現し、ユーザーが必要な情報を見つけたり、スマートな提案を受けたり、行動を起こしたりするのが容易になる」と説明している。
クラウド上でデータを守る仕組み
Private AI Computeは、Googleが提唱するSecure AI Framework (SAIF)、AI Principles、Privacy Principlesに基づき設計されている。これはクラウド上でAIを安全に実行するための次世代技術であり、ユーザーのデータを「安全な処理空間(secure, fortified space)」内で隔離し、外部からアクセスできないようにする。
この仕組みの中では、個人情報や利用パターンなどのセンシティブなデータが、信頼境界(trusted boundary) 内で処理される。さらに既存のAIセキュリティ対策に加え、追加の暗号化や隔離層によって保護されている。
Private AI Computeの設計は以下のような多層構造で構築されている。
統合されたGoogleテクノロジースタック
Private AI ComputeはGoogle独自のTPU(Tensor Processing Unit)上で動作し、Titanium Intelligence Enclaves(TIE)によるセキュリティ基盤の上に構築されている。この統合設計により、クラウド上のGeminiモデルを最大限に活用しつつ、GmailやSearchと同等のプライバシー基準を実現している。アクセス不可の設計
リモートアテステーション(遠隔認証)と暗号化により、ユーザーのデバイスとハードウェア保護されたクラウド環境との安全な接続を確立する。これにより、処理中のデータはユーザー本人以外にはアクセスできず、Google自身もその内容を見ることができない構造となっている。
Private AI ComputeがもたらすAI体験の進化
この技術により、端末上のAI機能がクラウドの能力を拡張的に利用できるようになった。たとえば、Pixel 10シリーズの「Magic Cue」では、Private AI Computeを通じて、ユーザーの状況に合わせたより的確なタイミングでの提案が可能になっている。また、Recorderアプリでは、音声の文字起こし要約をより多くの言語で処理できるようになった。
Googleは「これはまだ始まりに過ぎない」としており、今後、端末上とクラウド上のモデルを組み合わせることで、より多くのユースケースに対応した安全で便利なAI体験を実現していく方針を示している。
同社はまた、Private AI Computeの詳細な技術解説をまとめた技術概要資料(technical brief)も公開しており、アーキテクチャやセキュリティ構造の仕組みをより深く理解できる内容となっている。
詳細はPrivate AI Compute: our next step in building private and helpful AIを参照していただきたい。