DeepSeek-V4 発表──1Mトークンの長文脈とエージェント特化アーキテクチャで推論コストを大幅削減
推論効率を最適化する圧縮アテンションとエージェント向け学習により、SWE-bench 等のタスクで最先端モデルに匹敵する性能を実現。
リリース: 2026-04-24 · 読了 5 分何が起きた
DeepSeek-V4-ProはV3.2と比較して、1Mトークン時の推論FLOPsを27%、KVキャッシュメモリ使用量を10%に抑制。
Compressed Sparse Attention (CSA) と Heavily Compressed Attention (HCA) を層ごとに交互に配置し、KVキャッシュを従来比約2%に圧縮。
SWE Verifiedベンチマークで80.6%の解決率を達成し、Gemini-3.1-ProやOpus-4.6-Maxと肩を並べる性能を記録。
エージェント向けにXML形式のツールコールスキーマを採用し、JSONのパースエラーを排除。
なぜ重要
長文脈モデルの最大のボトルネックであるKVキャッシュの肥大化と推論コスト増大を、アーキテクチャの工夫で実用レベルまで引き下げた。
ツール利用時のみ推論履歴を保持する適応的な学習により、マルチターンエージェントの長期的タスク遂行能力を強化した。
👁️ 開発者
開発者は、1Mトークンという広大なコンテキストを低コストで利用可能になり、複雑なコードベースや長期的なターミナル操作を伴うエージェント開発が加速する。
🇯🇵 日本
国内のAIエンジニアや研究者にとって、オープンモデルによる高度なエージェント構築が容易になり、商用モデルに依存しない自律型AIシステムの開発が進む。