HuggingFace、Transformers.js を用いた Chrome 拡張機能の設計指針を公開──MV3 対応のローカル AI 実装
Background Service Worker でモデルをホストし、サイドパネル UI と連携する高効率なアーキテクチャを解説する。
リリース: 2026-04-23 · 読了 5 分何が起きた
Manifest V3 の制約下で動作する Background Service Worker 主導のアーキテクチャを採用
推論エンジンに onnx-community/gemma-4-E2B-it-ONNX および all-MiniLM-L6-v2-ONNX を利用
モデルのキャッシュを拡張機能オリジンに集約し、タブ間でのメモリ重複を回避
ツール呼び出しの正規化層として webMcp を導入し、モデル出力を確定的な実行へ変換
なぜ重要
ブラウザ内でローカル推論を行う際、リソース効率と UI の応答性を両立させるための標準的な設計パターンを提示している
Service Worker のライフサイクル管理や、プライバシーに配慮したパーミッション設計の実践例として有用
👁️ 開発者
Chrome 拡張機能開発において、重い推論処理をバックグラウンドに逃がし、UI スレッドをブロックしない実装手法が確立される。
🇯🇵 日本
国内のブラウザ拡張機能開発者が、ローカル LLM を活用した高機能なツールを開発する際の技術的障壁が大幅に下がる。