🧠Research🔥🔥🔥

DeepSeek V4: フロンティア級の性能を圧倒的低コストで実現

DeepSeek が 1M トークンコンテキスト対応の V4-Pro / V4-Flash をリリース

リリース: 2026-04-24 · 読了 3
何が起きた
  • DeepSeek-V4-Pro は総パラメータ 1.6T(アクティブ 49B)、V4-Flash は総パラメータ 284B(アクティブ 13B)の MoE 構成。

  • 両モデルとも 100 万トークンのコンテキストウィンドウに対応し、MIT ライセンスで公開。

  • V4-Pro の価格は入力 $1.74 / 100 万トークン、出力 $3.48 / 100 万トークン。

  • 前世代 V3.2 と比較して、V4-Pro は FLOPs を 27%、KV キャッシュサイズを 10% に圧縮する効率改善を実現。

なぜ重要
  • オープンウェイトとして 1.6T パラメータという新たな規模の基準を打ち立てつつ、プロプライエタリなフロンティアモデルと比較して推論コストを大幅に削減した。

  • KV キャッシュと FLOPs の徹底最適化により、100 万トークン級の長文コンテキスト推論がハードウェア・費用の両面で現実的な水準まで降りてきた。

👁️ 開発者

開発者はフロンティア級の大規模モデルを前例のないコスト効率でデプロイでき、量子化を介したローカル実行も視野に入る。

🇯🇵 日本

高性能かつ低コストなモデルが使えるようになることで、日本企業は米国発フロンティア API の高額なコストを避けつつ複雑な AI ワークフローをスケールさせられる。