LLM アーキテクチャの最新動向──KV Sharing や mHC による推論効率の極大化
Sebastian Raschka 氏が、DeepSeek や Llama 3.1 に見る KV キャッシュ圧縮と Attention 構造の最適化手法を技術的に整理。
arXiv、LLM 生成の誤りを含む論文に 1 年間の投稿禁止措置を導入──文献捏造などを厳罰化
査読前論文の信頼性を担保するため、ハルシネーションや存在しない参考文献を含む LLM 生成コンテンツの投稿に対し、著者全員を対象とした 1 年間の出入り禁止処分を科す。