HauhauCS、モデル Qwen3.6-27B-Uncensored-HauhauCS-Aggressive を公開──拒否応答ゼロのファインチューニング版
Qwen3.6-27B をベースに、465 件の拒否応答ベンチマークで全通過を達成しつつ、K_P 量子化による高品質な推論環境を提供する。
リリース: 2026-04-22 · 読了 3 分何が起きた
ベースモデル: Qwen/Qwen3.6-27B
拒否応答ベンチマーク: 0/465 件の拒否を確認
量子化形式: K_P (Perfect) 形式を採用し、ベース量子化比で 5-15% のサイズ増で品質維持
コンテキスト長: 標準 262K トークン、YaRN による拡張対応
なぜ重要
商用モデルの厳格なフィルタリングを回避し、エージェントの推論ループやツール利用で意図しない拒否による停止を防ぎたい場合に最適である。
K_P 量子化により、VRAM 制約のある環境でも 1-2 レベル上の量子化品質を維持できるため、ローカル推論の精度限界を押し上げられる。
👁️ 開発者
llama.cpp や LM Studio を利用するエンジニアは、chat_template_kwargs の設定で thinking モードの制御を明示的に行うことで、推論コストと応答速度を最適化できる。
🇯🇵 日本
国内の[研究開発系ラボ]や[自社 LLM 構築チーム]は、商用 API の検閲を回避した reasoning trace の検証用ベースラインとして活用できる。