DeepSeek-V4 発表──1Mトークンの長文脈とエージェント特化アーキテクチャで推論コストを大幅削減
The Facts
- DeepSeek-V4-ProはV3.2と比較して、1Mトークン時の推論FLOPsを27%、KVキャッシュメモリ使用量を10%に抑制。
- Compressed Sparse Attention (CSA) と Heavily Compressed Attention (HCA) を層ごとに交互に配置し、KVキャッシュを従来比約2%に圧縮。
- SWE Verifiedベンチマークで80.6%の解決率を達成し、Gemini-3.1-ProやOpus-4.6-Maxと肩を並べる性能を記録。
- エージェント向けにXML形式のツールコールスキーマを採用し、JSONのパースエラーを排除。
Why It Matters
- 長文脈モデルの最大のボトルネックであるKVキャッシュの肥大化と推論コスト増大を、アーキテクチャの工夫で実用レベルまで引き下げた。
- ツール利用時のみ推論履歴を保持する適応的な学習により、マルチターンエージェントの長期的タスク遂行能力を強化した。
For Developers
開発者は、1Mトークンという広大なコンテキストを低コストで利用可能になり、複雑なコードベースや長期的なターミナル操作を伴うエージェント開発が加速する。
For Japan
国内のAIエンジニアや研究者にとって、オープンモデルによる高度なエージェント構築が容易になり、商用モデルに依存しない自律型AIシステムの開発が進む。