メインコンテンツへスキップ

Gemma 4 ガイド:どのモデルを選び、どこで動かすべきか

A
13 分で読めますAIモデルガイド

Gemma 4 は単一モデルではなく、4モデルから成るオープンファミリーです。実務では E2B / E4B を edge ルート、26B A4B / 31B を workstation ルートとして捉えると一気に分かりやすくなります。

Gemma 4 ガイド:どのモデルを選び、どこで動かすべきか

Gemma 4 は 1 つのモデルではありません。もし 1 つだけ覚えるなら、E2BE4B は edge ルート、26B A4B31B は workstation ルートだという点です。2026年4月3日時点では、この分け方がどの benchmark スクリーンショットよりも重要です。なぜなら、最初にスマホから入るのか、ノートPCから入るのか、ワークステーションから入るのか、あるいは hosted な試用面から入るのかを決めるからです。

Gemma 4 が通常の「新モデル発表」と少し違って見えるのもここです。これは抽象的に Google が次の open model を出した、という話ではありません。Apache 2.0 の下で公開された 4 モデル構成のファミリーであり、小さい枝は効率・ローカル実行・モバイル寄り、大きい枝は長いコンテキストと重いローカル推論寄りです。公開資料だけを読むと表面積が大きく感じられますが、実際に役立つ問いは 1 つです。必要なのは edge モデルか、それとも workstation モデルか。

本記事の主要な事実関係は、2026年4月3日に Google の Gemma release log、launch blog、Gemma 4 model card、Gemini Developer API pricing page、Android Developers Blog を基に確認しました。

まず決めるべきこと:どの Gemma 4 ルートから始めるか

Gemma 4 の family split board。edge ルートと workstation ルートを比較

実際にやりたいことまず見るべきもの理由主な注意点
オフライン、低遅延、端側、モバイル、小さめのローカルデバイスE4Bedge 側の最も素直な default。E2B より余裕がありつつ、効率的な local use 向け大きい枝より context ceiling は低く、最も重い workstation reasoning には不向き
Gemma 4 の中で最も軽い入口E2BRAM、battery、latency が本当の制約なら最も合理的E4B より ceiling は低い
ワークステーション級のローカル推論を現実的に始めたい26B A4B3.8B active parameters の MoE で、大きい枝の default 候補になりやすい「単純な dense 大モデル」よりプロダクトの読み方は少し複雑
dense な大型モデルを明示的に選びたい31Braw quality や fine-tuning の土台を重視するならこちら26B A4B よりハードウェア負荷が重い
self-hosting の前に大きい枝を試したいAI Studio の 26B A4B / 31Bもっとも早い公式 try-now ルート現在の pricing page は通常の paid Gemma SKU としては見せていない
端末上で audio / speech を扱いたいE4B または E2Bnative audio は小さい枝にある大きい枝は同じ audio ポジションではない

最も使いやすい default recommendation は単純です。edge ハードウェアから入るなら E4B、ワークステーションから入るなら 26B A4B まずはこの 2 点を入口にし、最小 footprint や dense 31B が本当に必要なときだけ外していくのが実務的です。

Gemma 4 とは何か

Gemma 4 は Google の最新オープンモデルファミリーです。公式 release log では 2026年3月31日、公開 launch blog では 2026年4月2日 と記録されています。Google は Gemma 4 を Gemini 3 と並ぶ open-model 系列として位置づけていますが、だからといって「Gemini を安くした別名」という話ではありません。実際に重要なのは deployment boundary です。Gemma は自分で動かし、調整し、配備できる open-weight family であり、Gemini は Google が管理する model line です。

この違いは、読者がしている意思決定そのものを変えます。Gemini を選ぶときは、多くの場合 API 契約と価格の判断です。Gemma 4 を選ぶときは、まず deployment surface の判断です。ローカル edge モデルを回すのか、workstation 級のローカルモデルを回すのか、それとも open model を評価するための hosted try-now surface を使うのかを決める必要があります。

今回 Google は product boundary もかなり明確にしています。official model card によれば、Gemma 4 は text と image input を受ける multimodal open model family で、小さいモデルは native audio input も扱え、出力は text です。ここは launch week で誤解されやすいので、はっきり言う価値があります。Gemma 4 は 画像生成モデルでも動画生成モデルでもありません。 OCR 的理解、coding、reasoning、text-centered workflows のための open multimodal family です。

本当の分かれ目:edge モデルと workstation モデル

Gemma 4 の model map。サイズ、context window、modalities、実運用の向き先を比較

Gemma 4 を理解するうえで役に立つのは、「抽象的にどれが最強か」を問うことではありません。どの deployment problem をどの枝が解いているかを見ることです。

edge 枝E2BE4B です。official model card では、どちらも 128K context、text と image input、そして native audio input を持ちます。さらに Google の Android announcement では、この枝が AICore / 次世代 Gemini Nano の device-side path と結びついていることが示されています。つまり、これは単なる「小型版」ではなく、latency、battery、local execution、制約の強いハードウェアを重視するための枝です。

この edge 枝の中では、E4B が多くの読者にとって最も素直な default です。E2B より余裕があり、それでいて Google が on-device と AI Edge に向けて押している側にいます。E2B は efficiency-first の選択で、footprint を最優先にするときに初めて積極的に選ぶべきモデルです。

workstation 枝26B A4B31B です。両方とも 256K context に上がり、長文書、広い code context、より重いローカル推論に向いた枝になります。ここで特に面白いのは 26B A4B です。official model card では total 25.2B、inference 時の active parameters は 3.8B と説明されています。実務的には、これが workstation 側の最初の default になりやすいという意味です。長い context と強めの reasoning tier を得ながら、最大 dense モデルを最初の強制選択にしなくて済みます。

31B は dense large model です。raw な dense-model quality や dense な fine-tuning base を優先したいときには理にかなっています。ただし重要なのは、「数字が最大だから default」という読み方をしないことです。多くの local developer にとって、最初に試すべきは 31B ではなく 26B A4B です。

Gemma 3 から何が変わったのか

Gemma 4 のアップグレードは、単純に「benchmark が上がった」という話ではありません。より深い変化は、Google がこの family を使いやすい形に整理したことです。

まず、大きい枝は 256K context に達し、小さい枝は 128K を維持しています。これにより Gemma 4 は、長文書や repository-scale のローカル作業で、ただの軽量 open release よりもはるかに実用的になります。次に、launch materials と model card は native system-role supportnative function-calling posture を明確に押し出しています。これは agentic / structured workflow で重要です。さらに、family の split 自体がはっきりしました。edge 側は添え物の小モデルではなくなり、workstation 側も曖昧な一枚板ではなくなりました。

能力面の伸びも実在します。official model card では、31B が Gemma 3 27B より AIME 系の数学や LiveCodeBench 系の coding でかなり強い結果を示しています。ここで大事なのは benchmark 崇拝ではなく、今回の launch が cosmetic ではないと理解することです。Gemma 4 の下には、能力の伸びと family design の改善が両方あります。

もう 1 つ大きいのが deployment posture です。Google は AI Studio を大きい枝の try-now surface に、AI Edge / Android を小さい枝の on-device route に、そして Hugging Face、Ollama、MLX、llama.cpp、vLLM を self-hosted path に置いています。要するに、Gemma 4 の価値は「賢くなった」だけではなく、どこで使うべき family なのかが前よりずっと読みやすくなったことにあります。

今どこで Gemma 4 を動かすべきか

Gemma 4 の access routes board。AI Studio、AI Edge、self-hosted runtimes、Google Cloud を整理

どこで Gemma 4 を動かすべきかは、選んだ枝で決まります。

大きい枝をいちばん簡単に 試したいなら、Google の launch blog は 31B26B A4BAI Studio に向けています。ローカル stack を組む前に workstation 側の感触を見るには最短の公式ルートです。ただし 1 点だけ境界を明確にしておく必要があります。現在の Gemini Developer API pricing page は Gemma 4 を free only として見せており、通常の paid managed model と同じような line item にはしていません。つまり、「今すぐ試せる」は正しい一方で、「普通の有料 Gemini API SKU のように使える」と言い切るのは現状の公開 pricing とズレます。

一方で edge 枝を見ているなら、公式シグナルは別方向です。Android Developers Blog は Gemma 4 を AICore Developer Preview と将来の Gemini Nano 4 搭載デバイスの流れに接続し、launch materials も E4B / E2BAI Edge の流れに置いています。小さい枝は toy release ではなく、明確な on-device path として扱われています。

self-hosted local control が欲しいなら、Google の launch materials でも Hugging Face、Kaggle、Ollama、Transformers、MLX、llama.cpp、vLLM といった open-model ecosystem が強調されています。ワークステーションで Gemma 4 を回したい、ローカル coding workflow に組み込みたい、あるいは broader local stack の一部にしたいなら、ここが本筋です。次にやるべきことが local provider 設定なら、続けて読む価値が高いのは英語版の OpenClaw LLM setup guide です。

さらに production-scale deployment を考えている場合、Google はこの話を Google Cloud の方向へ寄せています。現在の pricing page からは、Gemma 4 が通常の paid hosted Gemini line item として振る舞っているとは読めません。ここも product boundary として重要です。

シナリオ別の実用的な選び方

一般的な edge default が欲しいなら、まず E4B です。Google が edge 側にかけている product investment と、ローカル multimodal use に必要な余裕のバランスがいちばん良いからです。

本当の制約が memory、battery、latency なら、E2B から始めるべきです。family 全体の default ではありませんが、footprint が何より重要なときにはもっとも正直な答えです。

workstation 級の local coding / reasoning model が欲しいなら、26B A4B が最重要の recommendation です。MoE の設計により、大きい枝に入るためにいきなり最重の dense モデルへ行く必要がありません。ローカルで coding、reasoning、長文 context を扱いたい開発者には、これが最初の評価対象として最も自然です。

raw dense-model quality や fine-tuning headroom を最優先するなら、31B へ進みます。ハードウェア予算に余裕があり、dense な大型モデルを意図的に選ぶときだけここが正解になります。

on-device audio understanding が必要なら、E2B / E4B に留まるべきです。audio support の product boundary は model card で明確に示されており、単純な parameter count よりも重要です。

まだ Gemma 4 が自分に必要か判断したいだけなら、いきなりローカル構築から入らないことです。大きい枝は AI Studio、小さい枝は Android / AI Edge preview から始めるのが合理的です。枝を決める前に local deployment を作り込むのが、いちばん無駄が大きい進め方です。

Gemma 4 が向かない場面

Gemma 4 は open weights、Apache 2.0、長い context、強い reasoning posture、明確な edge ambition など、魅力的な言葉が一度に並ぶので、過大評価されやすい側面があります。それでも、すべての人にとって最適な答えになるわけではありません。

もし本当に必要なのが 安定した managed API contract と明確な paid pricing なら、Gemma 4 は現時点で managed Gemini route ほど素直ではありません。現在の pricing page は、むしろその境界をはっきり見せている点に価値があります。この場合は英語版の Gemini API pricing guide のほうが次に読むべき内容に近いはずです。

また、欲しいものが 最強クラスの closed frontier model であり、open weights や self-hosting の運用負担を持ち込みたくないなら、Gemma 4 はそもそも探している答えではないかもしれません。Gemma 4 の強さは開放性と deployability にあり、open model と managed frontier system の境界を消すことではありません。

さらに、画像生成や動画生成 が目的なら Gemma 4 は明確に外れです。official model card が示すとおり、Gemma 4 は text と visual input を受けて text output を返す multimodal open model family であり、画像生成ラインでも動画生成ラインでもありません。

最後に持っておくべき考え方

Gemma 4 は「launch week の新しいブランド名」として見るより、2 本立ての open family として見るのが正解です。

1 本目は edge トラックE2BE4B で、local execution、multimodal on-device use、device-level practicality が中心です。2 本目は workstation トラック26B A4B31B で、長い context と重いローカル推論が中心です。このトラックを最初に正しく選べば、Gemma 4 はかなり分かりやすくなります。逆にそこを飛ばすと、4 つのモデルがまた曖昧に見えてしまいます。

だから一番役に立つ quick answer もシンプルです。serious edge ルートなら E4B、serious workstation ルートなら 26B A4B さらに小さくするのは効率が本当の bottleneck のときだけ、さらに重くするのは dense 31B の代償を自覚しているときだけにしましょう。

Share:

laozhang.ai

One API, All AI Models

AI Image

Gemini 3 Pro Image

$0.05/img
80% OFF
AI Video

Sora 2 · Veo 3.1

$0.15/video
Async API
AI Chat

GPT · Claude · Gemini

200+ models
Official Price
Served 100K+ developers
|@laozhang_cn|Get $0.1