Mistral AI、128B 旗艦モデル Mistral Medium 3.5 を公開──SWE-Bench で 77.6% を記録
推論・コーディング・命令追従を統合した 128B Dense モデル。非同期で動くクラウド型コーディングエージェント「Mistral Vibe」の基盤として、実務の自律実行に特化した。
リリース: 2026-04-29 · 読了 3 分何が起きた
SWE-Bench Verified で 77.6% を記録し、Qwen 3.5 397B や Devstral 2 を上回るコーディング性能を実現
256k コンテキストウィンドウを備えた 128B Dense アーキテクチャを採用し、4 枚の GPU でのセルフホストが可能
非同期実行に対応したリモートエージェント「Mistral Vibe」を導入し、CLI や Le Chat からクラウド上で並列にタスクを処理できる
API 価格は入力 $1.5/1M、出力 $7.5/1M で提供され、修正 MIT ライセンスの下で重みも公開
なぜ重要
「ローカル完結」だったコーディングエージェントが「クラウド非同期」へ移行したことで、開発者がエージェントの完了を待たずに並列で別作業を進めるワークフローが標準化される
128B 級の高性能モデルが 4 枚の GPU で自前運用できるため、機密性の高いコードベースを扱う企業が商用 API 級の自律エージェントを VPC 内で構築する現実的な選択肢となった
👁️ 開発者
開発者は CLI からタスクをクラウドへ「テレポート」し、GitHub PR 作成までを非同期で任せられるため、依存関係の更新やリファクタリングなどの定型業務から解放される。
🇯🇵 日本
国内の受託開発や SaaS 開発企業(特に中規模以上のチーム)は、Cursor 等の対話型だけでなく、バックグラウンドで並列動作する「自律型エージェント」を開発パイプラインに組み込む検討が必要になる。