Si hoy quieres usar el Nano Banana Pro API oficial, el modelo que realmente buscas es gemini-3-pro-image-preview. No existe un portal separado llamado "Nano Banana Pro para developers". Lo que de verdad importa son dos rutas oficiales de Google hacia el mismo modelo: Google AI Studio + Gemini Developer API si quieres llegar al primer request lo mas rapido posible, y Vertex AI si lo importante es IAM, control operativo, batch o capacidad provisionada.
La diferencia importa porque la decision real aqui es operativa. Lo importante es desde donde integrarlo, como autenticarlo, si esa ruta es de pago y si AI Studio y Vertex AI resuelven el mismo trabajo o no. La respuesta mas limpia es esta: mismo modelo, contratos operativos distintos.
Todos los model IDs, el estado Preview, los precios y las fronteras de billing que aparecen abajo se volvieron a comprobar con documentacion oficial de Google el 1 de abril de 2026.
Resumen rapido
| Si tu trabajo real se parece a esto | Empieza aqui | Por que | Principal advertencia |
|---|---|---|---|
| Quieres el primer request oficial cuanto antes | AI Studio + Gemini Developer API | La ruta con API key es la mas corta y facilita iterar prompts | Nano Banana Pro no tiene free API tier |
| Vas a operar una app de equipo dentro de Google Cloud | Vertex AI | Encaja mejor con IAM, service accounts, billing control y auditoria | La puesta en marcha es mas pesada que en el camino de API key |
| Necesitas batch o provisioned throughput | Vertex AI | La pagina oficial del modelo Pro menciona Batch y Provisioned Throughput | Ya no es solo una decision de UI, sino de operacion |
| Necesitas fidelity alta y mejor text rendering de verdad | Nano Banana Pro | Es la ruta de imagen premium de Google | No todos los workloads deben arrancar por defecto aqui |
La regla practica es sencilla: si el mayor riesgo es "como saco mi primer request", empieza por AI Studio; si el mayor riesgo es "como opero esto bien dentro de Cloud", empieza por Vertex AI.
Que es realmente el Nano Banana Pro API oficial
El nombre invita a una idea equivocada. Nano Banana Pro se refiere al modelo de imagen Gemini gemini-3-pro-image-preview, no a un portal de producto separado. Sigue marcado como Preview, y Google lo posiciona como la ruta de mayor nivel para image generation y editing mas exigente, con mejor text rendering, layouts complejos y salida de hasta 4K.
Lo importante es que la identidad del modelo no cambia aunque cambie el surface. El Nano Banana Pro al que entras por AI Studio no es distinto del que entras por Vertex AI. En ambos casos el objetivo sigue siendo gemini-3-pro-image-preview.
La pagina del modelo en Vertex AI tambien añade un matiz importante que muchos posts secundarios tratan mal: aunque el modelo siga en Preview, Google dice que los clientes pueden optar por usar este offering en production o con fines comerciales bajo los Pre-GA terms. La lectura honesta no es "Preview significa prohibido en produccion" ni "Preview significa que ya esta todo resuelto". La lectura correcta es: se puede usar, pero el contrato Pre-GA y el riesgo de cambio siguen vigentes.
Si antes de esta decision quieres una vista mas amplia del mapa oficial de acceso a Nano Banana, lee nuestra guia de Nano Banana AI image generation API. Si todavia estas decidiendo si de verdad necesitas Pro o si otra ruta de Gemini Image API encaja mejor, complementa esta lectura con nuestra guia de Gemini Image API 2026. Esta pagina va mas al grano: como entrar oficialmente en Pro.
AI Studio o Vertex AI: que cambia de verdad
Aqui la decision importante no es el nombre del modelo, sino la ruta operativa. Ambas rutas te llevan al mismo modelo, pero la autenticacion, la superficie de billing, el modelo operativo y la forma de escalar son distintos.

AI Studio + Gemini Developer API es la ruta oficial mas rapida cuando el trabajo real es integrar deprisa. Creas el API key en Google AI Studio, si quieres pruebas prompts en la interfaz oficial, y luego llamas a Gemini Developer API desde codigo. Para un solo developer, un prototipo o una fase temprana de integracion, esta es la mejor salida por defecto.
Vertex AI gana cuando Nano Banana Pro deja de ser una prueba y pasa a formar parte de una carga real en Cloud. En el momento en que importan IAM, project governance, application default credentials, batch o provisioned capacity, Vertex deja de ser "la version mas pesada" y se convierte en el hogar operativo correcto. La propia pagina oficial del modelo en Vertex enumera Standard PayGo, Flex PayGo, Batch prediction y Provisioned Throughput, y esa es la mejor pista de por que existe esta ruta.
La regla corta para no perderse es:
- si hoy te importa sobre todo la velocidad de integracion, empieza por AI Studio
- si hoy te importa sobre todo la operacion y la gobernanza en Cloud, empieza por Vertex AI
Ruta 1: AI Studio + Gemini Developer API
Para muchos lectores, este es el punto de partida correcto. Google AI Studio es el centro oficial del flujo de claves para Gemini Developer API. No es solo un playground. Es una parte real de la ruta oficial basada en API key.
Y tambien es donde nace la confusion mas comun. Mucha gente ve que AI Studio se puede abrir y probar, y deduce que Nano Banana Pro debe tener algun tipo de API gratis. Pero la pricing page oficial dice lo contrario: para gemini-3-pro-image-preview aparece Free Tier: Not available. El Billing FAQ de Google es mas preciso todavia: AI Studio sigue siendo gratis de usar hasta que vinculas un paid API key para acceder a paid features; en cuanto lo haces, el uso de esa clave se factura.
La forma mas segura de entenderlo es esta:
- AI Studio como interfaz puede seguir siendo gratis
- el uso del Nano Banana Pro por API sigue siendo un contrato de pago
- "lo veo en AI Studio" no significa "tengo una API gratis para Pro"
Cuando conviene esta ruta
Empieza por AI Studio si:
- quieres el primer working request cuanto antes
- el nivel actual de riesgo encaja con API key
- sigues iterando prompts y estilo de salida
- todavia no necesitas Cloud IAM, batch ni provisioned throughput
Ejemplo minimo en JavaScript
Instala primero el SDK oficial:
bashnpm install @google/genai
Despues envia el request con API key:
javascriptimport { GoogleGenAI } from "@google/genai"; import fs from "node:fs"; const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY }); const response = await ai.models.generateContent({ model: "gemini-3-pro-image-preview", contents: "Create a clean product hero image for a mechanical keyboard on a dark studio background.", config: { responseModalities: ["IMAGE"], imageConfig: { aspectRatio: "16:9", imageSize: "2K", }, }, }); for (const part of response.candidates[0].content.parts) { if (part.inlineData) { fs.writeFileSync( "nano-banana-pro-output.png", Buffer.from(part.inlineData.data, "base64"), ); } }
Esa es la ruta oficial mas corta: crear la clave en AI Studio, exportar GEMINI_API_KEY y llamar a generateContent. Las docs actuales de image generation de Google tambien dejan un detalle pequeno pero util: la K de 1K, 2K y 4K debe ir en mayuscula.
Si prefieres validar primero con HTTP puro, el mismo contrato funciona via Gemini Developer API y autenticacion con x-goog-api-key. Lo que cambia es el transporte, no la naturaleza de la ruta.
Ruta 2: Vertex AI para operacion cloud gobernada
En cuanto la pregunta deja de ser "como conecto esto rapido" y pasa a ser "como lo opero bien dentro de Cloud", Vertex AI suele ser la opcion mas natural. Vertex no es solo una envoltura mas pesada. El valor esta en entrar en el contrato de autenticacion y operacion de Google Cloud.

En la ruta de Gemini Developer API, la pieza central es el API key. En la ruta de Vertex AI, la pieza central es la Cloud auth. Las docs actuales de image generation de Google muestran el GenAI SDK configurado con GOOGLE_CLOUD_PROJECT, GOOGLE_CLOUD_LOCATION y GOOGLE_GENAI_USE_VERTEXAI=True. Eso ya deja claro que ahora estas dentro del modelo operativo de Google Cloud y no en un simple contrato de API key.
Cuando conviene esta ruta
Elige Vertex si:
- la aplicacion ya es de equipo y no solo de una persona
- necesitas IAM, auditoria y project governance
- necesitas batch o provisioned throughput
- service account / ADC encaja mejor que repartir API keys
- el problema ya es de operacion sostenida, no solo de conexion
Ejemplo minimo en Node.js
Instala el mismo SDK:
bashnpm install @google/genai
Despues fija las variables de entorno como en las docs oficiales de Vertex:
bashexport GOOGLE_CLOUD_PROJECT=your-project-id export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
Y llama al mismo modelo desde Vertex:
javascriptimport fs from "node:fs"; import { GoogleGenAI, Modality } from "@google/genai"; const client = new GoogleGenAI({ vertexai: true, project: process.env.GOOGLE_CLOUD_PROJECT, location: process.env.GOOGLE_CLOUD_LOCATION || "global", }); const response = await client.models.generateContent({ model: "gemini-3-pro-image-preview", contents: "Create a premium launch poster for a smart watch, crisp typography, dark editorial lighting.", config: { responseModalities: [Modality.IMAGE], }, }); for (const part of response.candidates[0].content.parts) { if (part.inlineData) { fs.writeFileSync( "vertex-nano-banana-pro-output.png", Buffer.from(part.inlineData.data, "base64"), ); } }
Fijate en lo que no cambia: el model string. Fijate en lo que si cambia: el client setup y los supuestos de autenticacion. Ese es el nucleo real del articulo.
Precio, Preview y el error de contrato mas comun
Las pricing pages de Google ayudan bastante aqui. En Gemini Developer API, gemini-3-pro-image-preview no tiene free API tier, y el image output cuesta \$0.134 por imagen de 1K/2K y \$0.24 por imagen de 4K. En Vertex AI, el coste Standard aterriza en el mismo equivalente por imagen, mientras que Flex/Batch lo reduce a \$0.067 para 1K/2K y \$0.12 para 4K.
De ahi salen dos conclusiones utiles:
- AI Studio no es la ruta barata por el mero hecho de ser mas ligera
- Vertex AI no es automaticamente la ruta cara solo por vivir en Cloud
La diferencia importante sigue siendo operativa. AI Studio esta optimizado para empezar rapido con API key. Vertex AI esta optimizado para operar en Cloud con mas control y mas opciones de escala.
Y conviene insistir una vez mas en la mayor fuente de confusion. Que AI Studio pueda abrirse y probarse no significa que Nano Banana Pro API sea gratis. El Billing FAQ se lee mejor asi: AI Studio sigue siendo gratis hasta que conectas un paid API key para paid features; el uso real del API en rutas como Nano Banana Pro se cobra.
Se puede empezar en AI Studio y pasar despues a Vertex
Si, y para muchos equipos ese es el orden mas razonable. Empieza en AI Studio cuando el trabajo real es entender prompts, validar output quality y sacar la primera integracion. Pasa a Vertex AI cuando lo que ya pesa no es conectar, sino operar con controles Cloud.

La migracion es mas sencilla de lo que parece porque la identidad del modelo no cambia. No estas abandonando un producto por otro. Lo que cambias es el contrato alrededor:
- de API key auth a Cloud auth
- de la gestion de keys y proyectos en AI Studio a project / IAM operations en Cloud
- de "primero hacerlo funcionar" a "operarlo bien en el tiempo"
Por eso suele ser un error tanto meter todos los experimentos en Vertex AI desde el minuto uno como asumir que AI Studio sera siempre el hogar final. La respuesta correcta depende de donde esta hoy el peso operativo real.
Decide en 30 segundos
Si solo quieres la regla mas corta posible, usa esta.
Empieza por AI Studio + Gemini Developer API si tu pregunta real es:
- "Como saco el primer request lo mas rapido posible?"
- "Como pruebo prompts en el entorno oficial antes de complicar la infraestructura?"
- "Puedo arrancar por la ruta oficial sin meter toda la operacion Cloud desde el inicio?"
Empieza por Vertex AI si tu pregunta real es:
- "Como integro esto dentro de nuestro Google Cloud?"
- "Como doy acceso controlado al equipo sin repartir API keys?"
- "Como planifico batch o provisioned throughput?"
Y si en realidad tu duda no es la ruta sino si Pro es el modelo correcto, no empieces peleando por el surface. Empieza por nuestra guia amplia de Gemini Image API 2026 y por la ruta oficial de Nano Banana AI image generation API. En muchos casos la mayor diferencia de coste y arquitectura esta en la eleccion del modelo, no en la puerta de entrada.
