DeepSeek-AI、1.6T パラメータの MoE モデル DeepSeek-V4-Pro を公開──100万トークンコンテキストと FP4/FP8 推論に対応
100万トークンコンテキストでの推論効率を DeepSeek-V3.2 比で 73% 削減し、GPQA で 90.1、GSM8K で 92.6 の SOTA 級性能を達成。
リリース: 2026-04-24 · 読了 5 分何が起きた
DeepSeek-V4-Pro (1.6T パラメータ, 49B アクティブ) と DeepSeek-V4-Flash (284B パラメータ, 13B アクティブ) のプレビュー版を公開
100万トークンコンテキスト長に対応し、DeepSeek-V3.2 と比較して推論 FLOPs を 73% 削減、KV キャッシュを 90% 削減
GPQA で 90.1、GSM8K で 92.6、MMLU Pro で 87.5、SWE Bench Pro で 55.4 を達成し、オープンソースモデルとして最高性能を謳う
FP4 + FP8 Mixed Precision 推論に対応し、推論コストとメモリ使用量を大幅に削減
なぜ重要
100万トークンコンテキストを実用的なコストで扱えるなら、社内 RAG での全ドキュメント参照設計が現実解となる。
オープンソース LLM が SOTA クローズドモデルに迫る性能を示したことで、商用 API への依存度を減らし、VPC 内で完結する RAG の再構築が視野に入る。
👁️ 開発者
DeepSeek-V4-Pro の 100万トークンコンテキストと FP4/FP8 推論は、長文理解と低コスト推論を両立させたい開発者にとって、既存の LLM からの移行を強く後押しする。
🇯🇵 日本
国内 LLM 開発企業は、DeepSeek-V4-Pro をベースラインとして、ファインチューニングや RAG システムの性能向上を検討すべき。特に 100万トークンコンテキストは、既存の社内文書検索システムを大幅に刷新する可能性を秘める。