Googleは毎年、AI開発に関するレポートを発表しています。
7月28日、AIの開発において公平性、プライバシー、安全性などの懸念事項に対応するための新しいベストプラクティスを発表しました。
1. 責任をデザインする(Design for responsibility)
AIの開発においては、公平性やプライバシー、安全性などの懸念事項に対応するために、責任ある方法で行う必要があります。
Googleでは、責任あるデータセットや分類器の使用を推奨しています。
これにより、AI製品の開発プロセスが安全で社会的に有益なものになると考えられています。
2. 敵対的テストの実施(Conduct adversarial testing)
AIの開発においては、事前にリスクを特定し、内部でストレステストを行うことが重要です。
Googleは、生成AI製品の開発においてもストレステストを行っています。
また、コミュニティからのフィードバックも重視しています。
外部の専門家やユーザーからの意見を取り入れることで、より安全で信頼性の高い生成AI製品を開発することができます。
3. シンプルなコミュニケーションとわかりやすい説明(Communicate simple, helpful explanations)
AIの生成AI製品を発売する際には、使用方法について明確なコミュニケーションを行うことが重要です。
Googleは、簡潔で分かりやすい説明を提供することで、ユーザーが生成AIの動作や結果を理解しやすくするよう努めています。
また、ユーザーからのフィードバックも収集し、生成AI製品の改善に活かしています。
他にも、AIの責任ある開発には外部の専門家との協力やポリシーの策定、技術的なアプローチの使用などが含まれます。
Googleは透明性を維持し、AIのリスク評価や倫理的な見直しのプロセスについての詳細な報告書を公開しています。
詳しい内容は「3 emerging practices for responsible generative AI」を参照してください。
まとめ
GoogleはAIの責任ある開発に取り組んでおり、責任ある生成AIのための3つの新しい実践方法を発表しました。
AIの開発においては、公平性やプライバシー、安全性などの懸念事項に対応するために、責任あるデータセットや分類器の使用、潜在的な害の特定と対処などが重要です。
Googleは透明性を維持しながら、AIの責任ある開発に関するベストプラクティスを共有しています。
AIの利点を最大限に活用するためには、責任ある開発が不可欠です。