跳转到主要内容

Nano Banana Pro API 接入指南(2026):Vertex AI 与 AI Studio 官方方式

A
15 分钟阅读API 指南

如果你现在要接官方 Nano Banana Pro API,真正对应的模型是 gemini-3-pro-image-preview。想最快跑通首个请求,就走 Google AI Studio + Gemini Developer API;如果你需要 IAM、批处理、受控计费或更正式的云上运维,就走 Vertex AI。

Nano Banana Pro API 接入指南(2026):Vertex AI 与 AI Studio 官方方式

如果你现在要接 官方 Nano Banana Pro API,你真正要找的模型是 gemini-3-pro-image-preview。它并不存在一个单独的 “Nano Banana Pro 开发者入口”。当前真正重要的只有 两条 Google 官方路径:如果你想最快把第一个请求跑通,就用 Google AI Studio + Gemini Developer API;如果你需要 Cloud IAM、项目级治理、批处理或预留吞吐,就用 Vertex AI

这个区分很重要,因为这里真正要解决的不是名字问题,而是操作路径问题:我应该从哪里接、怎么认证、要不要上 Cloud、现在到底是不是付费。最干净的答案是:同一个模型,不同的运行合同

下文中所有 model ID、Preview 状态、价格与计费边界,都已按 2026 年 4 月 1 日 的 Google 官方文档重新核实。

TL;DR

你的真实任务先从哪里开始为什么最大注意点
你想最快拿到一个官方可用请求AI Studio + Gemini Developer APIAPI key 路线最短,试提示词也方便Nano Banana Pro 当前 没有免费 API 层
你在 Google Cloud 里做团队应用Vertex AI更适合 IAM、服务账号、计费治理与审计设置比 API key 路线更重
你需要 batch 或 provisioned throughputVertex AIGoogle 的 Pro 模型页明确列出 Batch 和 Provisioned Throughput这已经是基础设施选择,不只是 UI 选择
你要的是更高保真、更强文字渲染的最终资产Nano Banana Pro这是官方高阶图像模型但不是所有任务都该默认上 Pro

最实用的一句话是:如果你的主要风险是“我先把首个请求跑起来”,先走 AI Studio;如果你的主要风险是“这套东西要怎么被团队安全运营”,就走 Vertex AI。

Nano Banana Pro 官方 API 到底是什么

先要纠正的是对名字的预期。Nano Banana Pro 指的就是 Gemini 图像模型 gemini-3-pro-image-preview,不是一个单独的产品入口。它当前仍然处于 Preview,官方定位是更高阶的图像生成与编辑路线,强调更复杂的视觉任务、更强的文字渲染,以及最高 4K 输出。

真正重要的是:无论你从 AI Studio 进,还是从 Vertex AI 进,模型身份都不变。 AI Studio 不会给你一个“轻量版”的 Nano Banana Pro,Vertex AI 也不是另一个企业专属模型。两条路最终都是 gemini-3-pro-image-preview

Google 在 Vertex AI 的模型页里还给了一个很多二手教程没有处理好的细节:虽然它还是 Preview,但官方明确写到,客户可以在 Pre-GA 条款 下将这个 Preview offering 用于生产或商业用途。最准确的理解不是 “Preview 不能上生产”,也不是 “Preview 就等于已经稳定”,而是:可以用于生产,但你必须接受 Preview 阶段的合同与变更边界。

如果你想先看更宽的 Nano Banana 家族接入地图,可以读我们的 Nano Banana AI 图片生成 API 指南;如果你还在判断 Pro 和 2 到底怎么选,可以继续看 Nano Banana Pro vs Nano Banana 2 对比。这篇文章只回答官方 Pro 接入问题。

AI Studio 和 Vertex AI,到底差在哪

这里真正会改变结果的,不是模型名,而是你选哪条运行路径。两条路都能把你带到同一个模型,但 认证方式、计费面、运维方式、规模能力 不一样。

比较 AI Studio 与 Vertex AI 适用场景的 Nano Banana Pro 官方路线图

AI Studio + Gemini Developer API 是最快的官方接入路径。你在 Google AI Studio 里创建 API key,必要时先在官方界面验证提示词,再用 Gemini Developer API 从代码里调用模型。只要你现在的目标是“尽快跑通、尽快验证”,这通常是更好的默认值。

Vertex AI 更适合当 Nano Banana Pro 进入一个真正的 Cloud 工作负载之后。只要需求开始涉及 IAM、项目级治理、Application Default Credentials、批处理、预留吞吐,或者更清晰的团队运维边界,Vertex AI 就不再只是“更复杂的选项”,而会变成正确的宿主。Google 的 Vertex AI 模型页也明确列出了 Standard PayGo、Flex PayGo、Batch prediction、Provisioned Throughput,这正是 Vertex 的核心价值。

记一个最简单的判断规则:

  • 如果你现在最在意的是 开发速度,先用 AI Studio
  • 如果你现在最在意的是 云上运维与治理,先用 Vertex AI

路线一:AI Studio + Gemini Developer API

对很多读者来说,这就是正确起点。Google AI Studio 是 Gemini Developer API 的官方 key 管理与试验入口。它不只是 playground,也不应该被理解成“只是给你看看效果的演示页”。它是 官方 API key 路线 的一部分。

但这里最大的误解也恰恰发生在这里:很多人因为 AI Studio 可以打开、可以试,就误以为 Nano Banana Pro 也有某种免费 API 层。Google 当前的官方定价页写得很清楚:gemini-3-pro-image-previewFree Tier: Not available Google 的 billing FAQ 也说明了:AI Studio 本身仍然可以免费使用,但一旦你把 paid API key 用在 paid features 上,这个 key 的使用就会进入计费。

最安全的理解方式是:

  • AI Studio 这个产品界面本身可以是免费的
  • Nano Banana Pro 的 API 使用合同仍然是 付费
  • “我能在 AI Studio 里看到它” 不等于 “我有免费 Pro API”

什么时候该选这条路

如果你的真实需求是下面这些,先选 AI Studio:

  • 你只是想尽快拿到一个可运行请求
  • API key 对当前场景已经够用
  • 你还在反复试提示词和出图风格
  • 你还没到非要引入 Cloud IAM、Batch、Provisioned Throughput 的阶段

最小 JavaScript 示例

先安装官方 SDK:

bash
npm install @google/genai

然后用 API key 发请求:

javascript
import { GoogleGenAI } from "@google/genai"; import fs from "node:fs"; const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY }); const response = await ai.models.generateContent({ model: "gemini-3-pro-image-preview", contents: "Create a clean product hero image for a mechanical keyboard on a dark studio background.", config: { responseModalities: ["IMAGE"], imageConfig: { aspectRatio: "16:9", imageSize: "2K", }, }, }); for (const part of response.candidates[0].content.parts) { if (part.inlineData) { fs.writeFileSync( "nano-banana-pro-output.png", Buffer.from(part.inlineData.data, "base64"), ); } }

这就是最短的官方接法:在 AI Studio 里创建 key,导出 GEMINI_API_KEY,然后调用 generateContent。Google 当前的 image generation 文档还提醒了一个很容易忽略的实现细节:1K2K4K 里的 K 必须大写。

如果你更习惯先从 REST 验证,这条路线同样支持使用 Gemini Developer API 的 HTTP 请求,认证方式仍然是 x-goog-api-key。变化的是传输层,不是合同本身。

路线二:Vertex AI,适合受控生产场景

一旦你的问题从“我怎么快速接入”变成“这套东西怎么在团队和 Cloud 里长期跑”,Vertex AI 往往才是更合理的起点。很多团队以为 Vertex AI 只是更重一点的同款 UI,其实不是。真正的变化在于 你已经进入 Google Cloud 的认证与运维模型

展示 AI Studio API key 与 Vertex AI Cloud auth 差异的认证路径图

在 Gemini Developer API 路线里,核心是 API key;在 Vertex AI 路线里,核心是 Cloud auth。Google 当前的图像生成文档展示的是通过 GOOGLE_CLOUD_PROJECTGOOGLE_CLOUD_LOCATIONGOOGLE_GENAI_USE_VERTEXAI=True 来配置 GenAI SDK,这已经足够说明你现在站在 Google Cloud 的运行合同里,而不是单纯的 API key 合同里。

什么时候该选这条路

下面这些情况,更适合直接走 Vertex:

  • 这个应用属于团队,而不是某个个人实验
  • 你需要 IAM、审计、项目级治理
  • 你明确需要 batch 或 provisioned throughput
  • service account / ADC 比分发 API key 更符合你的安全边界
  • 你关心的不只是“能不能调用”,而是“能不能被团队长期运营”

最小 Node.js 示例

安装同一套 SDK:

bash
npm install @google/genai

按 Google 当前 Vertex 文档设置环境变量:

bash
export GOOGLE_CLOUD_PROJECT=your-project-id export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True

然后通过 Vertex 调用同一个模型:

javascript
import fs from "node:fs"; import { GoogleGenAI, Modality } from "@google/genai"; const client = new GoogleGenAI({ vertexai: true, project: process.env.GOOGLE_CLOUD_PROJECT, location: process.env.GOOGLE_CLOUD_LOCATION || "global", }); const response = await client.models.generateContent({ model: "gemini-3-pro-image-preview", contents: "Create a premium launch poster for a smart watch, crisp typography, dark editorial lighting.", config: { responseModalities: [Modality.IMAGE], }, }); for (const part of response.candidates[0].content.parts) { if (part.inlineData) { fs.writeFileSync( "vertex-nano-banana-pro-output.png", Buffer.from(part.inlineData.data, "base64"), ); } }

注意这里最关键的事实:模型字符串没有变,变的是客户端初始化与认证方式。 这正是这篇文章最核心的知识增量。

价格、Preview 状态与最常见的合同误解

Google 当前的定价页其实已经把误解空间压得很小了。在 Gemini Developer API 定价页里,gemini-3-pro-image-preview 当前 没有免费层,图像输出价格是 1K/2K 每张 0.134 美元4K 每张 0.24 美元。在 Vertex AI 定价页里,Standard 的图像输出换算下来是同样的单张成本,而 Flex/Batch 会把它压到 1K/2K 每张 0.067 美元4K 每张 0.12 美元

这带来两个很有价值的结论:

  • AI Studio 并不因为“更轻”就一定更便宜
  • Vertex AI 也不因为“在 Cloud 里”就一定更贵

真正更重要的差异仍然是运行合同。AI Studio 优化的是 API key 接入与快速验证;Vertex AI 优化的是 Cloud 环境下的长期运维与规模化能力。

另外还要再强调一次:很多人看到 AI Studio 还能免费打开和试,就顺手把它理解成 Pro API 也有免费层。但 Google 的 billing FAQ 说得更准确:AI Studio 仍然可以免费使用,除非你把 paid API key 链接到 paid features 上。 Nano Banana Pro 正是这种 实际 API 使用收费 的路线。

能不能先在 AI Studio 开始,之后再迁到 Vertex?

可以,而且对很多团队来说,这恰恰是最理性的顺序。先在 AI Studio 路线里把提示词、风格和首个请求打通;等到系统真正开始要求 Cloud 原生控制,再迁到 Vertex AI。

从 Prompt 到模型再到图片输出的 Nano Banana Pro 官方请求流程图

迁移之所以没有想象中那么重,是因为 模型身份没有变。你不是从一个产品迁到另一个产品,你只是把同一个模型放进了另一套运行合同:

  • 从 API key auth 切到 Cloud auth
  • 从 AI Studio 的 key / project 管理切到 Cloud 的 project / IAM 运维
  • 从“先跑通”切到“要长期可控地运行”

这也是为什么一开始就把所有实验都丢进 Vertex AI 通常是过度设计,而把 AI Studio 永远当成最终宿主也经常不够。正确路线取决于你今天的真实运维负担在哪里。

30 秒做决定

如果你还是想要一个极简判断规则,可以直接用下面这一版。

如果你的真实问题是:

  • “我怎么最快把第一个请求跑通?”
  • “我怎么先在官方环境里把提示词试明白?”
  • “我还没准备好引入 Cloud 运维,能不能先从官方路线接起来?”

那就先用 AI Studio + Gemini Developer API

如果你的真实问题是:

  • “它怎么进入我们的 Google Cloud 体系?”
  • “我怎么给团队提供受控访问,而不是分发 API key?”
  • “我怎么规划 batch 或 provisioned throughput?”

那就从 Vertex AI 开始。

如果你现在真正还没想明白的不是路线,而是 Pro 这个模型值不值得用,那就不要先纠结入口。先看 Nano Banana Pro vs Nano Banana 2 对比;很多情况下,更大的成本收益点其实在模型选择,而不是入口选择。

分享文章:

laozhang.ai

一个 API,所有 AI 模型

AI 图片

Gemini 3 Pro Image

$0.05/张
官方2折
AI 视频

Sora 2 · Veo 3.1

$0.15/个
异步API
AI 对话

GPT · Claude · Gemini

200+ 模型
同官方价
已服务 10万+ 开发者
|@laozhang_cn|送$0.1