如果你现在要接 官方 Nano Banana Pro API,你真正要找的模型是 gemini-3-pro-image-preview。它并不存在一个单独的 “Nano Banana Pro 开发者入口”。当前真正重要的只有 两条 Google 官方路径:如果你想最快把第一个请求跑通,就用 Google AI Studio + Gemini Developer API;如果你需要 Cloud IAM、项目级治理、批处理或预留吞吐,就用 Vertex AI。
这个区分很重要,因为这里真正要解决的不是名字问题,而是操作路径问题:我应该从哪里接、怎么认证、要不要上 Cloud、现在到底是不是付费。最干净的答案是:同一个模型,不同的运行合同。
下文中所有 model ID、Preview 状态、价格与计费边界,都已按 2026 年 4 月 1 日 的 Google 官方文档重新核实。
TL;DR
| 你的真实任务 | 先从哪里开始 | 为什么 | 最大注意点 |
|---|---|---|---|
| 你想最快拿到一个官方可用请求 | AI Studio + Gemini Developer API | API key 路线最短,试提示词也方便 | Nano Banana Pro 当前 没有免费 API 层 |
| 你在 Google Cloud 里做团队应用 | Vertex AI | 更适合 IAM、服务账号、计费治理与审计 | 设置比 API key 路线更重 |
| 你需要 batch 或 provisioned throughput | Vertex AI | Google 的 Pro 模型页明确列出 Batch 和 Provisioned Throughput | 这已经是基础设施选择,不只是 UI 选择 |
| 你要的是更高保真、更强文字渲染的最终资产 | Nano Banana Pro | 这是官方高阶图像模型 | 但不是所有任务都该默认上 Pro |
最实用的一句话是:如果你的主要风险是“我先把首个请求跑起来”,先走 AI Studio;如果你的主要风险是“这套东西要怎么被团队安全运营”,就走 Vertex AI。
Nano Banana Pro 官方 API 到底是什么
先要纠正的是对名字的预期。Nano Banana Pro 指的就是 Gemini 图像模型 gemini-3-pro-image-preview,不是一个单独的产品入口。它当前仍然处于 Preview,官方定位是更高阶的图像生成与编辑路线,强调更复杂的视觉任务、更强的文字渲染,以及最高 4K 输出。
真正重要的是:无论你从 AI Studio 进,还是从 Vertex AI 进,模型身份都不变。 AI Studio 不会给你一个“轻量版”的 Nano Banana Pro,Vertex AI 也不是另一个企业专属模型。两条路最终都是 gemini-3-pro-image-preview。
Google 在 Vertex AI 的模型页里还给了一个很多二手教程没有处理好的细节:虽然它还是 Preview,但官方明确写到,客户可以在 Pre-GA 条款 下将这个 Preview offering 用于生产或商业用途。最准确的理解不是 “Preview 不能上生产”,也不是 “Preview 就等于已经稳定”,而是:可以用于生产,但你必须接受 Preview 阶段的合同与变更边界。
如果你想先看更宽的 Nano Banana 家族接入地图,可以读我们的 Nano Banana AI 图片生成 API 指南;如果你还在判断 Pro 和 2 到底怎么选,可以继续看 Nano Banana Pro vs Nano Banana 2 对比。这篇文章只回答官方 Pro 接入问题。
AI Studio 和 Vertex AI,到底差在哪
这里真正会改变结果的,不是模型名,而是你选哪条运行路径。两条路都能把你带到同一个模型,但 认证方式、计费面、运维方式、规模能力 不一样。

AI Studio + Gemini Developer API 是最快的官方接入路径。你在 Google AI Studio 里创建 API key,必要时先在官方界面验证提示词,再用 Gemini Developer API 从代码里调用模型。只要你现在的目标是“尽快跑通、尽快验证”,这通常是更好的默认值。
Vertex AI 更适合当 Nano Banana Pro 进入一个真正的 Cloud 工作负载之后。只要需求开始涉及 IAM、项目级治理、Application Default Credentials、批处理、预留吞吐,或者更清晰的团队运维边界,Vertex AI 就不再只是“更复杂的选项”,而会变成正确的宿主。Google 的 Vertex AI 模型页也明确列出了 Standard PayGo、Flex PayGo、Batch prediction、Provisioned Throughput,这正是 Vertex 的核心价值。
记一个最简单的判断规则:
- 如果你现在最在意的是 开发速度,先用 AI Studio
- 如果你现在最在意的是 云上运维与治理,先用 Vertex AI
路线一:AI Studio + Gemini Developer API
对很多读者来说,这就是正确起点。Google AI Studio 是 Gemini Developer API 的官方 key 管理与试验入口。它不只是 playground,也不应该被理解成“只是给你看看效果的演示页”。它是 官方 API key 路线 的一部分。
但这里最大的误解也恰恰发生在这里:很多人因为 AI Studio 可以打开、可以试,就误以为 Nano Banana Pro 也有某种免费 API 层。Google 当前的官方定价页写得很清楚:gemini-3-pro-image-preview 的 Free Tier: Not available。 Google 的 billing FAQ 也说明了:AI Studio 本身仍然可以免费使用,但一旦你把 paid API key 用在 paid features 上,这个 key 的使用就会进入计费。
最安全的理解方式是:
- AI Studio 这个产品界面本身可以是免费的
- Nano Banana Pro 的 API 使用合同仍然是 付费
- “我能在 AI Studio 里看到它” 不等于 “我有免费 Pro API”
什么时候该选这条路
如果你的真实需求是下面这些,先选 AI Studio:
- 你只是想尽快拿到一个可运行请求
- API key 对当前场景已经够用
- 你还在反复试提示词和出图风格
- 你还没到非要引入 Cloud IAM、Batch、Provisioned Throughput 的阶段
最小 JavaScript 示例
先安装官方 SDK:
bashnpm install @google/genai
然后用 API key 发请求:
javascriptimport { GoogleGenAI } from "@google/genai"; import fs from "node:fs"; const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY }); const response = await ai.models.generateContent({ model: "gemini-3-pro-image-preview", contents: "Create a clean product hero image for a mechanical keyboard on a dark studio background.", config: { responseModalities: ["IMAGE"], imageConfig: { aspectRatio: "16:9", imageSize: "2K", }, }, }); for (const part of response.candidates[0].content.parts) { if (part.inlineData) { fs.writeFileSync( "nano-banana-pro-output.png", Buffer.from(part.inlineData.data, "base64"), ); } }
这就是最短的官方接法:在 AI Studio 里创建 key,导出 GEMINI_API_KEY,然后调用 generateContent。Google 当前的 image generation 文档还提醒了一个很容易忽略的实现细节:1K、2K、4K 里的 K 必须大写。
如果你更习惯先从 REST 验证,这条路线同样支持使用 Gemini Developer API 的 HTTP 请求,认证方式仍然是 x-goog-api-key。变化的是传输层,不是合同本身。
路线二:Vertex AI,适合受控生产场景
一旦你的问题从“我怎么快速接入”变成“这套东西怎么在团队和 Cloud 里长期跑”,Vertex AI 往往才是更合理的起点。很多团队以为 Vertex AI 只是更重一点的同款 UI,其实不是。真正的变化在于 你已经进入 Google Cloud 的认证与运维模型。

在 Gemini Developer API 路线里,核心是 API key;在 Vertex AI 路线里,核心是 Cloud auth。Google 当前的图像生成文档展示的是通过 GOOGLE_CLOUD_PROJECT、GOOGLE_CLOUD_LOCATION 和 GOOGLE_GENAI_USE_VERTEXAI=True 来配置 GenAI SDK,这已经足够说明你现在站在 Google Cloud 的运行合同里,而不是单纯的 API key 合同里。
什么时候该选这条路
下面这些情况,更适合直接走 Vertex:
- 这个应用属于团队,而不是某个个人实验
- 你需要 IAM、审计、项目级治理
- 你明确需要 batch 或 provisioned throughput
- service account / ADC 比分发 API key 更符合你的安全边界
- 你关心的不只是“能不能调用”,而是“能不能被团队长期运营”
最小 Node.js 示例
安装同一套 SDK:
bashnpm install @google/genai
按 Google 当前 Vertex 文档设置环境变量:
bashexport GOOGLE_CLOUD_PROJECT=your-project-id export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
然后通过 Vertex 调用同一个模型:
javascriptimport fs from "node:fs"; import { GoogleGenAI, Modality } from "@google/genai"; const client = new GoogleGenAI({ vertexai: true, project: process.env.GOOGLE_CLOUD_PROJECT, location: process.env.GOOGLE_CLOUD_LOCATION || "global", }); const response = await client.models.generateContent({ model: "gemini-3-pro-image-preview", contents: "Create a premium launch poster for a smart watch, crisp typography, dark editorial lighting.", config: { responseModalities: [Modality.IMAGE], }, }); for (const part of response.candidates[0].content.parts) { if (part.inlineData) { fs.writeFileSync( "vertex-nano-banana-pro-output.png", Buffer.from(part.inlineData.data, "base64"), ); } }
注意这里最关键的事实:模型字符串没有变,变的是客户端初始化与认证方式。 这正是这篇文章最核心的知识增量。
价格、Preview 状态与最常见的合同误解
Google 当前的定价页其实已经把误解空间压得很小了。在 Gemini Developer API 定价页里,gemini-3-pro-image-preview 当前 没有免费层,图像输出价格是 1K/2K 每张 0.134 美元,4K 每张 0.24 美元。在 Vertex AI 定价页里,Standard 的图像输出换算下来是同样的单张成本,而 Flex/Batch 会把它压到 1K/2K 每张 0.067 美元、4K 每张 0.12 美元。
这带来两个很有价值的结论:
- AI Studio 并不因为“更轻”就一定更便宜
- Vertex AI 也不因为“在 Cloud 里”就一定更贵
真正更重要的差异仍然是运行合同。AI Studio 优化的是 API key 接入与快速验证;Vertex AI 优化的是 Cloud 环境下的长期运维与规模化能力。
另外还要再强调一次:很多人看到 AI Studio 还能免费打开和试,就顺手把它理解成 Pro API 也有免费层。但 Google 的 billing FAQ 说得更准确:AI Studio 仍然可以免费使用,除非你把 paid API key 链接到 paid features 上。 Nano Banana Pro 正是这种 实际 API 使用收费 的路线。
能不能先在 AI Studio 开始,之后再迁到 Vertex?
可以,而且对很多团队来说,这恰恰是最理性的顺序。先在 AI Studio 路线里把提示词、风格和首个请求打通;等到系统真正开始要求 Cloud 原生控制,再迁到 Vertex AI。

迁移之所以没有想象中那么重,是因为 模型身份没有变。你不是从一个产品迁到另一个产品,你只是把同一个模型放进了另一套运行合同:
- 从 API key auth 切到 Cloud auth
- 从 AI Studio 的 key / project 管理切到 Cloud 的 project / IAM 运维
- 从“先跑通”切到“要长期可控地运行”
这也是为什么一开始就把所有实验都丢进 Vertex AI 通常是过度设计,而把 AI Studio 永远当成最终宿主也经常不够。正确路线取决于你今天的真实运维负担在哪里。
30 秒做决定
如果你还是想要一个极简判断规则,可以直接用下面这一版。
如果你的真实问题是:
- “我怎么最快把第一个请求跑通?”
- “我怎么先在官方环境里把提示词试明白?”
- “我还没准备好引入 Cloud 运维,能不能先从官方路线接起来?”
那就先用 AI Studio + Gemini Developer API。
如果你的真实问题是:
- “它怎么进入我们的 Google Cloud 体系?”
- “我怎么给团队提供受控访问,而不是分发 API key?”
- “我怎么规划 batch 或 provisioned throughput?”
那就从 Vertex AI 开始。
如果你现在真正还没想明白的不是路线,而是 Pro 这个模型值不值得用,那就不要先纠结入口。先看 Nano Banana Pro vs Nano Banana 2 对比;很多情况下,更大的成本收益点其实在模型选择,而不是入口选择。
