4月3日、Cloudflareは「Workers AI」の一般提供開始(GA)と複数の新機能を公開した。
この発表は、AI推論プラットフォームの信頼性とパフォーマンスの向上、GPUハードウェアの更新、Hugging Faceとのパートナーシップの拡張、独自のLoRAファインチューニング推論の提供、WorkersにおけるPythonサポート、AI Gatewayにおけるプロバイダーの追加、およびベクトル化メタデータフィルタリングなど、幅広い領域に及ぶ。
Workers AIが一般提供開始
Workers AIが正式に一般提供を開始し、オープンベータ期間からのフィードバックを元にサービスが強化された。Cloudflareは、AI推論を同社ネットワークの他のサービス同様に信頼性が高く利用しやすいものにする目標の下、内部のロードバランシング機能をアップグレードし、リクエストをより多くのGPUに、150を超える都市へ効率的にルーティングする体制を整えた。
// Workers AIのコードサンプル
const response = await ai.run(
"@cf/mistralai/mistral-7b-instruct-v0.2-lora", // LoRAサポート付きモデル
{
messages: [{"role": "user", "content": "Hello world"}],
raw: true, // デフォルトのチャットテンプレートを適用しない
lora: "00000000-0000-0000-0000-000000000", // ファインチューニングIDまたは名前
}
);
Pythonサポートの追加
Pythonサポートの追加は、AIアプリケーション開発におけるPythonの広範な使用を反映したもので、開発者がCloudflare Workersプラットフォーム上で直接Pythonコードを記述し、実行できるようになった。これにより、開発者はJavaScriptの代わりにPythonを使用してAI推論を含むフルスタックアプリケーションを構築できる。
# Pythonによるfetchの例
from js import Response
async def on_fetch(request, env):
return Response.new("Hello world!")
Hugging Faceとのパートナーシップの拡張
Hugging Faceとのパートナーシップ拡大により、CloudflareはHugging Faceの人気モデルをWorkers AIプラットフォーム上で簡単に利用できるようにした。この動きは、オープンソースのベストプラクティスを顧客に提供するというCloudflareの取り組みを反映している。
また、CloudflareはAI推論を実行するコストを削減するための最適化を行い、特定のモデルに関しては初期発表時から大幅な価格低下を実現した。この価格戦略は、AI推論をより多くの開発者にとって手が届きやすいものにするための努力の一環である。
この一連のアップデートと発表は、Cloudflareが提供する開発者向けプラットフォームをAIアプリケーション構築のための最も包括的なものの一つにするための取り組みを示している。詳細は[Leveling up Workers AI: General Availability and more new capabilities]で確認できる。