lablab.ai、セキュリティ特化モデル CyberSecQwen-4B を公開──4B で 8B 級の CTI 性能を実現
12GB VRAM で動作し、機密性の高い脆弱性データやログを外部 API に送らずローカルで解析できる、Apache 2.0 ライセンスの防御側エンジニア向けモデル。
リリース: 2026-05-08 · 読了 4 分何が起きた
Qwen3-4B-Instruct をベースに、MITRE/NVD の CVE-CWE マッピングデータ等でファインチューニングを実施した。
CTI-MCQ ベンチマークにおいて、パラメータ数が 2 倍の Cisco Foundation-Sec-Instruct-8B を +8.7 ポイント上回る精度を達成した。
AMD MI300X 1枚で量子化なしのフル bf16 学習を完結し、推論は 12GB 以上の VRAM を持つコンシューマ向け GPU で動作する。
ライセンスは Apache 2.0 であり、商用利用やクローズドな環境へのデプロイが容易な設計となっている。
なぜ重要
SOC アナリストが未公開の脆弱性や認証情報を含むログを外部 API に送信するリスクを回避し、完全なオンプレミス環境で解析を完結できる。
1 日数千件規模のアラート処理において、API コストを度外視して「この CVE の影響範囲は?」といった自動トリアージの実装を現実解にする。
👁️ 開発者
セキュリティ製品の開発者は、商用 LLM の安全フィルター(攻撃コードへの過剰な拒絶)を回避しつつ、防御に特化した推論パイプラインを 12GB VRAM 級の低コストなエッジ環境に構築できる。
🇯🇵 日本
国内の SOC 運営企業や政府系 CSIRT は、データの国外持ち出し制限がある環境下でも、Llama 3 70B 級の重厚なインフラを必要とせず、軽量な 4B モデルで脆弱性解析の自動化に着手できる。