10月16日、Appleは次世代SoC「M5」を発表した。M5はAI性能の大幅な伸長を掲げ、各GPUコアにNeural Acceleratorを内蔵する新アーキテクチャ、より強力なCPU、より高速なNeural Engine、そして153GB/sの統合メモリ帯域を特徴とする。以下、その内容を簡潔に紹介する。

M5の主なポイント(Apple公称)
- AI向けGPUアーキテクチャ:各GPUコアにNeural Acceleratorを搭載し、AI向けピークGPU演算でM4比4倍超。
- グラフィックス性能:M4比最大30%、レイトレーシング使用時に最大45%向上。
- CPU:最大10コア(Pコア4+Eコア6)。マルチスレッドでM4比最大15%向上。
- Neural Engine:16コアでApple Intelligenceや空間処理などのオンデバイスAIを加速。
- メモリ帯域:153GB/s(M4比約+30%)。大規模モデルのオンデバイス実行を後押し。
- 開発者向け:Core MLやMetal 4、Tensor APIでNeural Acceleratorを直接活用可能。
- 対応製品:14インチMacBook Pro、iPad Pro、Apple Vision Pro(いずれも予約開始)。
M5は第三世代の3nmプロセスを採用し、10コアGPUに各コア専用のNeural Acceleratorを搭載することで、GPUベースのAIワークロードにおいてM4比でピーク演算性能4倍超、M1比で6倍超をうたう。グラフィックスはシェーダ改良と第三世代レイトレーシングを組み合わせ、M4比最大30%、レイトレーシングを用いるアプリでは最大45%の向上を示す。CPUは最大10コア(高効率6+高性能4)構成で、マルチスレッド性能はM4比で最大15%向上とされる。

M5はMacBook Pro 14インチ、iPad Pro、Apple Vision Proに展開され、各デバイスでの用途に最適化される。Appleのフレームワークと統合されており、Core ML、Metal Performance Shaders、Metal 4を用いたアプリは即時の性能向上が見込める。開発者はMetal 4のTensor APIでNeural Acceleratorを直接プログラムでき、拡散モデル推論(Draw Thingsなど)やローカルLLM(webAI、LM Studioなど)の高速化を狙える。
Neural Engineは16コア構成で効率と性能を高め、Apple IntelligenceやVision Proの空間写真生成、Persona生成などのオンデバイスAI機能を加速する。統合メモリ帯域は153GB/s(M4比約30%増、M1比2倍超)で、より大きなAIモデルの完全オンデバイス実行や、同時多アプリのクリエイティブワークフローを支える。
視覚体験の面では、Apple Vision ProがマイクロOLEDにおいて描画ピクセル数を10%増加し、最大120Hzのリフレッシュレートに対応することで、残像低減や滑らかな表示を実現するとしている。電力効率の向上は製品ライフサイクルでの電力消費低減にも寄与し、Apple 2030のカーボンニュートラル計画を後押しする。
詳細は[Apple unleashes M5, the next big leap in AI performance for Apple silicon]を参照していただきたい。