事前学習済みモデルを微調整せずにデータ拡張への不変性を付与する軽量アダプター

軽量なMLPアダプターと新たな損失関数により、元の特徴量を保持したまま回転やノイズに対する頑健性を向上。STL10で回転画像精度を71%から94%へ改善。(原題: Post-Training Augmentation Invariance)

リリース: 2025-05-16 · 読了 5
何が起きた
  • 事前学習済みモデルの重みを固定したまま、データ拡張に対する不変性を付与する手法を提案

  • Markov-Wasserstein最小化とWasserstein相関最大化という2つの損失関数を導入

  • 軽量な1層のMLPアダプターを潜在空間に追加することで実装

  • STL10データセットにおいて、回転画像に対する分類精度を71%から94%へ向上

  • ノイズに対する分類精度も58%から86%へ大幅に改善

なぜ重要
  • 既存の事前学習済みモデルを再学習させることなく、特定の変換に対する頑健性を後付けで付与できる

  • 元の潜在空間を破壊せず、非拡張入力に対する性能を維持できる点が実用的

  • SimCLRやHSICなどの既存手法と比較して、特徴量の劣化を抑えつつ高い精度を達成

👁️ 開発者

既存の推論パイプラインの末端に軽量なアダプターを差し込むだけで、特定のデータ拡張に対する耐性を強化できるため、実運用環境でのモデルの堅牢性向上に直接寄与する。

🇯🇵 日本

製造現場や医療現場など、特定の環境変化(照明やノイズ)に対する頑健性が求められる画像認識タスクにおいて、計算コストを抑えたモデル改善の選択肢となる。