🧠Research🔥🔥

lablab.ai、セキュリティ特化モデル CyberSecQwen-4B を公開──4B で 8B 級の CTI 性能を実現

12GB VRAM で動作し、機密性の高い脆弱性データやログを外部 API に送らずローカルで解析できる、Apache 2.0 ライセンスの防御側エンジニア向けモデル。

リリース: 2026-05-08 · 読了 4
何が起きた
  • Qwen3-4B-Instruct をベースに、MITRE/NVD の CVE-CWE マッピングデータ等でファインチューニングを実施した。

  • CTI-MCQ ベンチマークにおいて、パラメータ数が 2 倍の Cisco Foundation-Sec-Instruct-8B を +8.7 ポイント上回る精度を達成した。

  • AMD MI300X 1枚で量子化なしのフル bf16 学習を完結し、推論は 12GB 以上の VRAM を持つコンシューマ向け GPU で動作する。

  • ライセンスは Apache 2.0 であり、商用利用やクローズドな環境へのデプロイが容易な設計となっている。

なぜ重要
  • SOC アナリストが未公開の脆弱性や認証情報を含むログを外部 API に送信するリスクを回避し、完全なオンプレミス環境で解析を完結できる。

  • 1 日数千件規模のアラート処理において、API コストを度外視して「この CVE の影響範囲は?」といった自動トリアージの実装を現実解にする。

👁️ 開発者

セキュリティ製品の開発者は、商用 LLM の安全フィルター(攻撃コードへの過剰な拒絶)を回避しつつ、防御に特化した推論パイプラインを 12GB VRAM 級の低コストなエッジ環境に構築できる。

🇯🇵 日本

国内の SOC 運営企業や政府系 CSIRT は、データの国外持ち出し制限がある環境下でも、Llama 3 70B 級の重厚なインフラを必要とせず、軽量な 4B モデルで脆弱性解析の自動化に着手できる。