低ランク回帰タスクにおけるTransformerのインコンテキスト学習メカニズムを理論的に解明
線形アテンションモデルの挙動を解析し、タスク構造に依存した汎化誤差の鋭い相転移を特定。(原題: Learning Linear Regression with Low-Rank Tasks in-Context)
リリース: 2025-10-06 · 読了 5 分何が起きた
線形アテンションモデルを低ランク回帰タスクで学習させる際の理論的挙動を解析
高次元極限における予測分布と汎化誤差を数学的に厳密に定義
有限の事前学習データにおける統計的変動が暗黙的な正則化として機能することを発見
タスク構造によって決定される汎化誤差の鋭い相転移現象を特定
なぜ重要
LLMの学習能力の核心であるインコンテキスト学習の理論的基盤を強化する
タスク構造の共有がモデルの汎化性能に与える影響を数学的に理解可能にする
👁️ 開発者
Transformerモデルがどのようにタスク構造を学習するかを理解するためのフレームワークを提供し、より効率的なモデル設計や学習戦略の立案に寄与する。
🇯🇵 日本
AIの理論研究における基盤的な知見として、国内のAI研究機関やLLM開発企業におけるモデル構造の最適化指針となる。
著者
Anonymous