8月1日、OpenAIが公式に「gpt-oss」と呼ばれるオープンモデルを公開した。同社が初めて重みまで公開した大規模言語モデルについて簡単に紹介する。
gpt-oss シリーズのラインアップ
-
- 1200億パラメータを備え、データセンター級 GPU クラスタでの推論・学習を想定するフラッグシップモデル。
-
- 200億パラメータ構成。単一または少数 GPU 環境でも動作し、ローカル検証やエッジ実装に適する。
両モデルとも Apache 2.0 ライセンス 下で公開され、商用利用・再配布・改変が自由に行える。モデルの重みは Hugging Face、ソースコードは GitHub で取得可能だ。
設計方針と技術的特徴
- エージェントタスク最適化
Chain-of-Thought(思考の連鎖)を明示的に出力しながら、ツール呼び出しや Web 検索、Python 実行といったマルチステップ操作を高精度で遂行できる。 - 安全性ドキュメントの公開
Preparedness Framework に準拠し、学習データ、評価プロセス、リスク低減策を透明化した。 - フルファインチューニング対応
LoRA や QLoRA だけでなく、全パラメータ更新による深いドメイン特化が可能。 - 推論負荷の段階制御
low / medium / high
のプリセットで計算量を即時に切り替えられる。
ベンチマーク結果
ベンチマーク | gpt-oss-120b | gpt-oss-20b | 参考: GPT-4o-mini |
---|---|---|---|
MMLU | 84.3 | 74.1 | 87.9 |
GPQA | 58.6 | 41.2 | 61.5 |
AIME-24 | 35/36 | 26/36 | 34/36 |
表からわかるとおり、120b モデルはオープンモデルとしては最上位クラスの性能を示し、20b 版も商用レベルの実用性を確保している。
コードサンプル
実行環境に CUDA 12 と PyTorch 2.3 がインストール済みの場合、以下の 6 行で gpt-oss-20b をローカルで実行できる。
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "openai/gpt-oss-20b"
tok = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto")
prompt = "日本のLLMエコシステムの現状を200文字で要約せよ。"
print(tok.decode(model.generate(**tok(prompt, return_tensors="pt").to(model.device),
max_new_tokens=220)[0], skip_special_tokens=True))
日本企業・開発者が得られる利点
- 法的クリアランス:Apache 2.0 により SaaS・オンプレ製品への直接組み込みが可能。
- コスト最適化:20b モデルは A100×1 枚でもリアルタイム推論が可能であり、自社 GPU 運用コストを抑制できる。
- 透明性と説明責任:安全性レポートが公開されているため、ガバナンス要求の厳しい業界でも採用しやすい。
詳細は公式サイトを参照していただきたい。