Notable3 min · LLM · Qwen
HauhauCS、モデル Qwen3.6-27B-Uncensored-HauhauCS-Aggressive を公開──拒否応答ゼロのファインチューニング版 Qwen3.6-27B をベースに、465 件の拒否応答ベンチマークで全通過を達成しつつ、K_P 量子化による高品質な推論環境を提供する。
The Facts ベースモデル: Qwen/Qwen3.6-27B 拒否応答ベンチマーク: 0/465 件の拒否を確認 量子化形式: K_P (Perfect) 形式を採用し、ベース量子化比で 5-15% のサイズ増で品質維持 コンテキスト長: 標準 262K トークン、YaRN による拡張対応 Why It Matters 商用モデルの厳格なフィルタリングを回避し、エージェントの推論ループやツール利用で意図しない拒否による停止を防ぎたい場合に最適である。 K_P 量子化により、VRAM 制約のある環境でも 1-2 レベル上の量子化品質を維持できるため、ローカル推論の精度限界を押し上げられる。 For Developers llama.cpp や LM Studio を利用するエンジニアは、chat_template_kwargs の設定で thinking モードの制御を明示的に行うことで、推論コストと応答速度を最適化できる。
For Japan 国内の[研究開発系ラボ]や[自社 LLM 構築チーム]は、商用 API の検閲を回避した reasoning trace の検証用ベースラインとして活用できる。
Sources Notable5 min · ICL · OOD Generalization
ICL の OOD 一般化は低次元部分空間で決まる 線形回帰タスクで ICL が分布外一般化できる条件を理論的に特定。GPT-2 でも実証。(原題: Out-of-Distribution Generalization of In-Context Learning: A Low-Dimensional Subspace Perspective)
事前学習タスクベクトルが部分空間の和集合から描かれる場合、Transformer は全ての角度シフトに一般化可能。
詳細を読む ▾
Notable3 min · LLM · CyberSecurity
OpenAI、GPT-5.5 のサイバーセキュリティ脆弱性検知能力を公開──Claude Mythos と同等の性能を達成 英国 AI Security Institute による評価で、現行モデル Claude Mythos と同等の脆弱性発見精度を記録し、かつ即時利用可能な高い可用性を証明した。
英国 AI Security Institute が GPT-5.5 のサイバー脆弱性検知能力を検証
詳細を読む ▾
Notable5 min · LLM · Multi-agent
Microsoft Research、マルチエージェント環境の脆弱性を実証──単体テストでは検知不能な「エージェント・ワーム」の伝播を確認 100体以上のLLMエージェントが相互作用する環境で、単一の悪意あるメッセージがネットワーク全体に感染し、プライベートデータを流出させる挙動を特定した。
Microsoftの研究チームは、100体以上のLLMエージェント(GPT-4o, GPT-4.1, GPT-5系)が稼働する内部プラットフォームでレッドチーム演習を実施した。
詳細を読む ▾
Notable3 min · Reddit · r/singularity
AIに「自信を持ちすぎない」ことを教える脳型アプローチを開発──過学習抑制に貢献 過度な自信を抑制する「疑う心」をAIに持たせることで、未知の状況での誤判断リスクを低減する新手法を提案。
AIが「自信を持ちすぎない」ようにする脳型アプローチが開発された。
詳細を読む ▾