IBM、埋め込みモデル Granite Embedding Multilingual R2 を公開──32K 文脈対応の 97M 超小型モデルで SOTA 達成

ModernBERT 基盤の 97M/311M モデルを展開。Apache 2.0 ライセンスで 200 言語以上をサポートし、100M 未満クラスで圧倒的な検索精度を記録した。

リリース: 2026-05-14 · 読了 4
何が起きた
  • 97M パラメータの小型モデルが MTEB Multilingual Retrieval で 60.3 を記録し、100M 未満のオープンモデルで最高精度を達成

  • コンテキスト長を R1 の 512 トークンから 32,768 トークン(64倍)へ大幅に拡張し、長文ドキュメントの RAG に対応

  • ModernBERT アーキテクチャを採用し、Flash Attention 2.0 や回転位置埋め込み(RoPE)による高速な推論と長文処理を実現

  • 日本語を含む 52 言語と 9 つのプログラミング言語で明示的な検索ペア学習を実施し、クロスリンガル検索の精度を強化

なぜ重要
  • 100M 未満の極小サイズで高精度な埋め込みが可能なため、エッジデバイスや CPU 環境での多言語 RAG 実装が現実的な選択肢になる

  • Apache 2.0 ライセンスかつ 32K 文脈対応により、商用利用において長大な技術文書やコードベースを低コストにインデックス化できる

👁️ 開発者

既存の sentence-transformers や LangChain 等に 1 行のモデル名変更で導入可能。特に 97M モデルは ONNX/OpenVINO 形式も提供されており、ブラウザ内やモバイルアプリでのローカル検索機能を大幅に強化できる。

🇯🇵 日本

日本語が重点 52 言語に含まれており、国内の製造業や IT 企業の技術文書(長文)を対象とした RAG 構築において、高価な商用 API や巨大な GPU サーバーを介さずとも、オンプレミス環境で高精度な検索基盤を運用できる。