🧠Research🔥🔥

HauhauCS、モデル Qwen3.6-27B-Uncensored-HauhauCS-Aggressive を公開──拒否応答ゼロのファインチューニング版

Qwen3.6-27B をベースに、465 件の拒否応答ベンチマークで全通過を達成しつつ、K_P 量子化による高品質な推論環境を提供する。

リリース: 2026-04-22 · 読了 3
何が起きた
  • ベースモデル: Qwen/Qwen3.6-27B

  • 拒否応答ベンチマーク: 0/465 件の拒否を確認

  • 量子化形式: K_P (Perfect) 形式を採用し、ベース量子化比で 5-15% のサイズ増で品質維持

  • コンテキスト長: 標準 262K トークン、YaRN による拡張対応

なぜ重要
  • 商用モデルの厳格なフィルタリングを回避し、エージェントの推論ループやツール利用で意図しない拒否による停止を防ぎたい場合に最適である。

  • K_P 量子化により、VRAM 制約のある環境でも 1-2 レベル上の量子化品質を維持できるため、ローカル推論の精度限界を押し上げられる。

👁️ 開発者

llama.cpp や LM Studio を利用するエンジニアは、chat_template_kwargs の設定で thinking モードの制御を明示的に行うことで、推論コストと応答速度を最適化できる。

🇯🇵 日本

国内の[研究開発系ラボ]や[自社 LLM 構築チーム]は、商用 API の検閲を回避した reasoning trace の検証用ベースラインとして活用できる。