Hugging Face、推論プロバイダーに DeepInfra を追加──DeepSeek V4 など 100 種以上のモデルを統一 API で提供

Hugging Face Hub 上のモデルページから DeepInfra の安価な推論環境を直接利用可能。DeepSeek V4 等の最新モデルを、追加の API キー管理なしに HF トークンのみで即座にアプリへ組み込める。

リリース: 2026-04-29 · 読了 3
何が起きた
  • DeepInfra が Hugging Face の公式 Inference Provider に加わり、DeepSeek V4、Kimi-K2.6、GLM-5.1 など 100 種類以上のモデルに対応した

  • Python および JavaScript の SDK (huggingface_hub >= 1.11.2) を通じて、OpenAI 互換の API 形式で DeepInfra へのルーティングが可能

  • 利用料金はプロバイダーの標準レートと同等で Hugging Face による手数料の上乗せはなく、PRO ユーザーには月額 2 ドル分の無料クレジットが付与される

なぜ重要
  • 複数の推論プロバイダーを Hugging Face の API 1 つに集約できるため、モデルごとに異なるプロバイダーの API キーを管理・実装するオーバーヘッドが解消される

  • DeepInfra は業界最安級のトークン単価を掲げており、自前で GPU サーバーを立てるコストをかけずに、DeepSeek V4 等の高性能モデルを商用 RAG 等に低コストで投入できる

👁️ 開発者

開発者は baseURL を HF のルーターに設定するだけで、バックエンドの推論基盤を DeepInfra 等へ透過的に切り替えられる。特定プロバイダーの障害や価格改定に対し、コード変更を最小限に抑えた冗長化が容易になる。

🇯🇵 日本

[国内 AI スタートアップ] や [受託開発会社] は、個別に契約が必要だった海外の格安プロバイダーを HF 経由で一括利用できる。日本円決済が可能な HF アカウントに請求をまとめられるため、経理処理の煩雑さを嫌う日本企業の現場で導入ハードルが下がる。