Google 未発表モデル Gemma4 E4B、iPhone 16 Pro でのベンチマーク結果が Reddit に投稿──オンデバイス推論の性能を確認
iPhone 16 Pro の A18 Pro チップ上で Google の次世代軽量モデル Gemma4 E4B を動作させた非公式検証。オンデバイスでのトークン生成速度やメモリ消費の具体値が示された。
リリース: 2026-05-05 · 読了 2 分何が起きた
Reddit ユーザーが iPhone 16 Pro 上で Google の未発表モデル Gemma4 E4B の動作検証結果を公開した。
検証には A18 Pro チップを搭載した iPhone 16 Pro が使用され、オンデバイスでの推論速度(t/s)が計測された。
投稿によれば、軽量化された E4B モデルはモバイル端末の NPU 最適化により、既存の Gemma 2 系列を上回る応答性能を実現している。
なぜ重要
クラウドを介さないオンデバイス AI の実用性が、次世代モデルと最新 SoC の組み合わせで「待機時間ゼロ」の領域に到達しつつある。
👁️ 開発者
iOS アプリ開発者は、CoreML や MLX を通じた Gemma4 系列の統合により、プライバシー重視かつ低レイテンシなエージェント機能を実装する検討を始めるべきだ。
🇯🇵 日本
iPhone シェアが高い国内の B2C アプリ開発ベンダー(特に金融・ヘルスケア等の機密情報を扱う業種)は、サーバーコストを抑えたローカル LLM 活用の技術検証を加速させる材料になる。