Google DeepMind、Decoupled DiLoCo を発表──地理的分散環境で従来比 20 倍以上の学習効率を実現
インターネット帯域での分散学習を可能にし、TPU v6e や v5p など異なる世代のハードウェアを混在させた大規模モデルの並列学習を実現する(原題: Decoupled DiLoCo: Resilient, Distributed AI Training at Scale)
リリース: 2026-04-23 · 読了 3 分何が起きた
120億パラメータのモデルを米国内の4つの異なるリージョンに分散して学習
2-5 Gbps の広域ネットワーク帯域で、専用インフラなしでの学習が可能
従来の同期手法と比較して 20 倍以上の学習速度を達成
TPU v6e と TPU v5p など、異なる世代のハードウェアを単一の学習ジョブで混在利用可能
なぜ重要
データセンター間の通信ボトルネックを回避し、既存のインターネット環境で大規模学習を可能にする
遊休状態の計算リソースや旧世代ハードウェアを有効活用することで、AI学習の経済性と可用性を劇的に向上させる
👁️ 開発者
分散学習時の同期待ちによるブロッキングを排除し、ネットワーク帯域が限られた環境でも大規模な事前学習を効率的に実行できる。
🇯🇵 日本
国内の地理的に離れたデータセンター間や、異なる世代のGPU/TPUリソースを統合した大規模AI開発が現実的になり、計算資源の調達課題を緩和する可能性がある。