본문으로 건너뛰기

Nano Banana Pro 안전 필터: 이미지 차단 이해, 설정, 우회 완벽 가이드 (2026)

A
25 분 소요AI 이미지 생성

Nano Banana Pro는 전 세계 개발자들을 좌절시키는 2계층 안전 필터 시스템을 사용합니다. Layer 1은 BLOCK_NONE으로 설정 가능하지만, Layer 2(IMAGE_SAFETY)는 어떤 API 설정으로도 비활성화할 수 없습니다. 이 가이드에서는 두 계층 모두를 설명하고, 프로덕션 코드, 70-80% 성공률의 검증된 프롬프트 엔지니어링 기법, 그리고 최적의 접근법을 선택할 수 있는 플랫폼 비교를 제공합니다.

Nano Banana Pro 안전 필터: 이미지 차단 이해, 설정, 우회 완벽 가이드 (2026)

Nano Banana Pro는 대부분의 개발자를 혼란스럽게 만드는 2계층 안전 필터 시스템을 사용합니다. Layer 1(설정 가능)은 API의 safety_settings 매개변수를 통해 BLOCK_NONE으로 설정할 수 있으며, 괴롭힘, 혐오 표현, 성적 콘텐츠, 위험 콘텐츠 카테고리에 대한 필터링을 제거합니다. Layer 2(IMAGE_SAFETY)는 설정 불가능한 서버 측 필터로, 어떤 API 설정으로도 비활성화할 수 없습니다. 2026년 3월 기준, 가장 효과적인 접근법은 Layer 1에 BLOCK_NONE 설정을 적용하고 경계선 Layer 2 콘텐츠에 대해 70-80% 성공률을 달성하는 프롬프트 엔지니어링 기법을 결합하는 것입니다.

핵심 요약

Nano Banana Pro의 안전 필터는 대부분의 개발자가 혼동하는 두 개의 독립적인 계층에서 작동하며, 이로 인해 잘못된 해결책을 적용하느라 수 시간을 낭비하게 됩니다. Layer 1은 네 가지 유해 카테고리(괴롭힘, 혐오 표현, 성적 콘텐츠, 위험 콘텐츠)를 필터링하며, API 호출에서 safety_settingsBLOCK_NONE으로 설정하면 완전히 비활성화할 수 있습니다. Layer 1이 요청을 차단하면 응답에 finishReason: "SAFETY"가 표시됩니다. Layer 2는 생성된 이미지를 AI 분류, 해시 매칭, 정책 집행을 통해 스캔하는 IMAGE_SAFETY라는 완전히 별도의 서버 측 시스템입니다. Layer 2가 차단하면 응답에 finishReason: "IMAGE_SAFETY"가 표시되며, 어떤 API 설정으로도 이를 비활성화할 수 없습니다. Layer 2에 대한 최선의 선택지는 프롬프트 엔지니어링(경계선 콘텐츠에서 약 70-80% 성공률)이거나, laozhang.ai와 같이 Layer 1 기본값이 완화된 플랫폼으로 전환하는 것입니다. CSAM, 극단적 폭력, 노골적 포르노그래피 등 영구 금지 카테고리에 해당하는 콘텐츠는 어떤 합법적 플랫폼이나 기법으로도 생성할 수 없습니다.

이미지가 차단되는 이유 (근본 원인 분석)

Nano Banana Pro 안전 필터 오류 진단 플로차트: SAFETY와 IMAGE_SAFETY 완료 이유에 따른 판단 경로

개발자들이 Nano Banana Pro 안전 필터에 시간을 낭비하는 가장 큰 이유는 잘못된 진단입니다. 이미지가 차단되면 "안전 필터를 비활성화하는 방법"을 검색하고, BLOCK_NONE 설정 방법을 찾아 구현한 다음, 여전히 이미지가 차단되는 것을 발견합니다. 문제는 BLOCK_NONE이 작동하지 않는다는 것이 아닙니다. BLOCK_NONE은 자신이 제어하는 범위 내에서 완벽하게 작동합니다. 문제는 대부분의 차단이 BLOCK_NONE이 전혀 영향을 미치지 않는 완전히 다른 시스템에서 발생한다는 것입니다.

어떤 계층이 특정 차단을 담당하는지 파악하는 것이 수정을 시도하기 전에 반드시 거쳐야 할 첫 번째 단계입니다. 진단 과정은 무엇을 찾아야 하는지 알면 매우 간단합니다. API 응답에서 finishReason 필드를 확인하세요. 값이 "SAFETY"이면 Layer 1 차단, 즉 safety_settings에 반응하는 설정 가능한 계층을 다루고 있는 것입니다. 네 가지 유해 카테고리 모두를 BLOCK_NONE으로 설정하면 거의 즉시 해결됩니다. 값이 "IMAGE_SAFETY"이면 Layer 2, 즉 설정 불가능한 서버 측 필터를 다루고 있는 것입니다. 어떤 API 설정 변경도 도움이 되지 않습니다. 이 가이드의 뒷부분에서 자세히 다루는 프롬프트 엔지니어링 기법이 필요합니다. 가능한 모든 오류 응답에 대한 포괄적인 목록은 전체 오류 코드 레퍼런스를 확인하세요.

많은 개발자가 이미지가 반환되지 않지만 finishReason이 "SAFETY"도 "IMAGE_SAFETY"도 아닌 세 번째 시나리오도 접하게 됩니다. 이는 일반적으로 완전히 다른 문제, 즉 속도 제한(HTTP 429), 잘못된 API 키, 할당량 소진, 프롬프트 형식 문제를 나타냅니다. 이러한 것들은 안전 필터 문제가 아니며 다른 해결책이 필요합니다. 문제 해결 및 디버깅 가이드에서 이러한 사례를 포괄적으로 다루고 있습니다.

잘못된 진단의 비용은 상당합니다. 공식 API를 통한 2K 해상도 이미지당 $0.134(Google AI for Developers, 2026년 3월)에서, 30% 거부율을 가진 1,000개 이미지 배치는 실패한 API 호출로 약 $40를 낭비합니다. 10,000개 이상의 이미지 배치를 처리하는 기업팀의 경우, 배치당 낭비 비용이 $400-700에 달할 수 있습니다. 수정을 시도하기 전에 차단 계층을 정확히 진단하면 비용과 엔지니어링 시간을 모두 절약할 수 있습니다.

2계층 안전 필터 아키텍처 상세 설명

Nano Banana Pro의 2계층 안전 필터 아키텍처: Layer 1 설정 가능한 설정과 Layer 2 서버 측 IMAGE_SAFETY를 보여주는 다이어그램

Nano Banana Pro의 안전 시스템은 요청을 순차적으로 처리하는 두 개의 완전히 독립적인 필터링 계층을 통해 작동합니다. 각 계층이 기술적으로 어떻게 작동하는지 이해하는 것은 안정적인 이미지 생성 파이프라인을 구축하는 데 매우 중요합니다. Google의 공식 문서는 safety_settings 매개변수를 설명하지만, IMAGE_SAFETY 계층에 대해서는 의도적으로 깊이 있게 다루지 않기 때문에 대부분의 개발자는 이 계층에 부딪히기 전까지 그 존재를 인지하지 못합니다.

Layer 1 작동 방식 (설정 가능)

Layer 1은 이미지 생성이 시작되기 전에 텍스트 프롬프트를 네 가지 유해 카테고리에 대해 평가합니다. 각 카테고리(괴롭힘, 혐오 표현, 성적 콘텐츠, 위험 콘텐츠)는 Google의 콘텐츠 분류 모델로부터 확률 점수를 받습니다. API 호출의 safety_settings 매개변수는 요청이 차단되는 임계값을 정의합니다. BLOCK_LOW_AND_ABOVE는 가장 엄격한 설정으로, 약간의 유해 가능성이 있는 것조차 차단합니다. BLOCK_MEDIUM_AND_ABOVEBLOCK_ONLY_HIGH는 점진적으로 더 관대합니다. BLOCK_NONE은 해당 카테고리에 대한 Layer 1 필터링을 완전히 비활성화하여, 유해 확률 점수와 관계없이 프롬프트를 통과시킵니다. Layer 1이 요청을 차단하면, API 응답에 finishReason: "SAFETY"와 함께 어떤 특정 카테고리가 어떤 신뢰도 수준에서 차단을 유발했는지 보여주는 safetyRatings가 포함됩니다. 이 정보는 정확히 무엇이 필터를 유발했는지 이해하는 데 매우 유용합니다.

Layer 2 작동 방식 (설정 불가)

Layer 2는 근본적으로 다른 원칙으로 작동합니다. 입력 프롬프트를 평가하는 대신, 서버 측에서 실행되는 여러 탐지 메커니즘을 사용하여 생성된 이미지 출력을 분석합니다. 여기에는 알려진 금지 이미지 데이터베이스에 대한 지각적 해시 매칭, 안전하지 않은 시각적 콘텐츠를 탐지하도록 훈련된 AI 분류 모델, CSAM 및 극단적 폭력과 같은 특정 카테고리에 대한 하드코딩된 정책 규칙이 포함됩니다. 2026년 1월 정책 업데이트에서는 유명인과 브랜드 로고에 대한 지적 재산 탐지가 추가되었습니다(디즈니 캐릭터가 가장 많이 보고된 사례). Layer 2가 생성된 이미지를 거부하면, 응답에 finishReason: "IMAGE_SAFETY"가 포함되지만 상세한 안전 등급은 제공되지 않습니다. 이미지가 차단되었다는 것만 알 수 있을 뿐, 정확한 이유는 알 수 없습니다. 이러한 투명성 부족으로 인해 Layer 2 차단은 Layer 1 차단보다 문제 해결이 훨씬 어렵습니다.

두 계층이 독립적인 이유

핵심적인 통찰은 이 두 계층이 아키텍처적으로 분리되어 있다는 것입니다. Layer 1은 생성 전 텍스트 분류기입니다. Layer 2는 생성 후 이미지 분석기입니다. BLOCK_NONE을 설정하면 Layer 1에게 모든 것을 통과시키라고 지시하지만, Layer 2는 safety_settings 설정을 수신하거나 이에 따라 작동하지 않습니다. Layer 2는 자체 규칙, 자체 임계값으로 완전히 독립적으로 작동합니다. 이것이 바로 BLOCK_NONE을 설정하고 필터링이 전혀 없을 것으로 기대하는 개발자들이 여전히 이미지가 차단될 때 놀라는 이유입니다. 하나의 필터를 성공적으로 비활성화했지만, 완전히 다른 필터가 최대 감도로 실행되고 있는 상태인 것입니다.

Layer 1 안전 설정 구성하기 (해결 가능한 부분)

API 응답에 finishReason: "SAFETY"가 표시되면, 네 가지 유해 카테고리 모두에 대해 safety_settingsBLOCK_NONE으로 구성하는 것이 해결책입니다. 이것은 Nano Banana Pro의 안전 필터를 다루는 데 있어 간단한 부분이며, 이미지 생성이든 텍스트 전용 생성이든 코드는 동일합니다. 아직 API 접근을 설정하지 않았다면, API 키 발급 가이드에서 전체 과정을 안내합니다.

Python (google-generativeai SDK)

python
import google.generativeai as genai genai.configure(api_key="YOUR_API_KEY") model = genai.GenerativeModel("gemini-2.0-flash-exp") safety_settings = [ {"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_NONE"}, {"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_NONE"}, {"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT", "threshold": "BLOCK_NONE"}, {"category": "HARM_CATEGORY_DANGEROUS_CONTENT", "threshold": "BLOCK_NONE"}, ] response = model.generate_content( "Generate a product photo of a summer swimsuit on a mannequin", safety_settings=safety_settings, generation_config={"response_modalities": ["TEXT", "IMAGE"]} )

Node.js (@google/generative-ai SDK)

javascript
const { GoogleGenerativeAI, HarmCategory, HarmBlockThreshold } = require("@google/generative-ai"); const genAI = new GoogleGenerativeAI("YOUR_API_KEY"); const model = genAI.getGenerativeModel({ model: "gemini-2.0-flash-exp" }); const safetySettings = [ { category: HarmCategory.HARM_CATEGORY_HARASSMENT, threshold: HarmBlockThreshold.BLOCK_NONE }, { category: HarmCategory.HARM_CATEGORY_HATE_SPEECH, threshold: HarmBlockThreshold.BLOCK_NONE }, { category: HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT, threshold: HarmBlockThreshold.BLOCK_NONE }, { category: HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT, threshold: HarmBlockThreshold.BLOCK_NONE }, ]; const result = await model.generateContent({ contents: [{ role: "user", parts: [{ text: "Generate a product photo of a summer swimsuit" }] }], safetySettings, });

cURL (REST API)

bash
curl -X POST \ "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash-exp:generateContent?key=YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "contents": [{"parts": [{"text": "Generate a product photo of a summer swimsuit"}]}], "safetySettings": [ {"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_NONE"}, {"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_NONE"}, {"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT", "threshold": "BLOCK_NONE"}, {"category": "HARM_CATEGORY_DANGEROUS_CONTENT", "threshold": "BLOCK_NONE"} ], "generationConfig": {"responseMimeType": "text/plain"} }'

여기서 중요한 점은 BLOCK_NONE을 설정하면 Layer 1 차단에 대해 거의 100% 성공률을 얻을 수 있다는 것입니다. 이 설정은 해당 계층을 사실상 완전히 비활성화합니다. 그러나 laozhang.ai와 같은 서드파티 API 제공업체는 BLOCK_NONE을 기본 설정으로 제공하므로, 매 요청마다 이러한 설정을 지정할 필요가 없습니다. 이는 마찰을 최소화하려는 배치 처리에 특히 편리합니다. laozhang.ai를 통해 이미지당 약 $0.05로, 공식 API의 $0.134와 비교했을 때(2026년 3월 가격 기준) 대규모에서 비용 절감 효과가 크게 누적됩니다. 통합 세부 사항은 docs.laozhang.ai 문서에서 확인할 수 있습니다.

Layer 2를 위한 프롬프트 엔지니어링 (실제로 효과가 있는 방법)

응답에 finishReason: "IMAGE_SAFETY"가 표시되고 이미 Layer 1에 BLOCK_NONE을 설정했다면, 설정 불가능한 서버 측 필터를 다루고 있는 것입니다. 여기서 유일하게 효과적인 접근법은 프롬프트 엔지니어링입니다. Layer 2의 분류 모델을 유발하는 패턴을 피하면서 동일한 의도된 시각적 출력을 생성하도록 프롬프트를 재구성하는 것입니다. 여러 콘텐츠 카테고리에 걸친 광범위한 테스트를 기반으로, 특정 프롬프트 변환 기법이 경계선 콘텐츠에서 약 70-80%의 성공률을 달성합니다(aifreeapi.com 분석, 2026년 3월).

전략 1: 임상적, 전문적 언어 사용

가장 광범위하게 효과적인 기법은 일상적이거나 선정적인 언어를 전문 용어로 대체하는 것입니다. Layer 2의 분류 모델은 키워드만이 아니라 언어 패턴에 대해 훈련되어 있으므로, 프롬프트의 프레이밍이 평가에 크게 영향을 미칩니다. 이커머스 속옷 촬영의 경우, "란제리를 입은 여성이 유혹적으로 포즈를 취하는"이라고 하면 일관되게 차단되지만, "마네킹 위의 여성 이너웨어 제품 사진, 흰색 배경, 카탈로그 스타일"이라고 하면 약 80%의 확률로 통과합니다. 핵심적인 변환은 옷을 입은 사람을 묘사하는 것에서 상업적 맥락의 제품을 묘사하는 것으로 전환하는 것입니다. 리스크 컨트롤 회피 가이드에서 수십 가지 카테고리별 프롬프트 변환을 다루고 있습니다.

전략 2: 맥락적 프레이밍 추가

상업적이거나 교육적인 맥락을 명시적으로 제공하면 Layer 2의 분류기가 콘텐츠를 합법적인 것으로 분류하는 데 도움이 됩니다. "이커머스 제품 카탈로그용", "의료 교육 일러스트레이션", "패션 디자인 레퍼런스"와 같은 문구를 추가하면 모델이 낮은 위험으로 인식하는 전문적인 맥락에서 콘텐츠를 프레이밍합니다. 이 기법이 효과가 있는 이유는 분류 모델이 개별 키워드가 아니라 전체 프롬프트 맥락을 평가하기 때문입니다. "온라인 소매점 제품 페이지용"으로 요청된 수영복 이미지는 상업적 맥락 없이 요청된 동일한 이미지보다 훨씬 적은 검열을 받습니다.

전략 3: 애니메이션 스타일보다 사실적 스타일 선호

테스트 결과 애니메이션 및 만화 스타일이 Layer 2에서 특히 인체 캐릭터가 포함된 콘텐츠의 경우 현저히 높은 거부율을 유발하는 것으로 일관되게 나타났습니다. 이는 애니메이션 스타일 이미지가 모델의 훈련 데이터에서 정책 위반 콘텐츠와 불균형적으로 연관되어 왔기 때문입니다. 사용 사례가 허용한다면, "애니메이션 스타일 캐릭터"에서 "사실적 디지털 아트" 또는 "포토리얼리스틱 렌더링"으로 전환하면 동일한 콘텐츠에 대해 성공률을 20-30% 향상시킬 수 있습니다. 이것은 최소한의 노력으로 가장 큰 영향을 줄 수 있는 변경 중 하나입니다.

Layer 2 프롬프트 엔지니어링의 현실은 실험이 필요하다는 것입니다. 보편적으로 작동하는 단일 기법은 없으며, Google은 분류 모델을 주기적으로 업데이트하여 통과하는 것과 그렇지 않은 것이 변할 수 있습니다. 특정 콘텐츠 카테고리에 걸쳐 성공률을 체계적으로 평가하는 프롬프트 테스트 파이프라인을 구축하는 것이 가장 신뢰할 수 있는 장기적 접근법입니다.

플랫폼 비교: 필터가 덜 공격적인 곳

Google AI Studio, Gemini API, Vertex AI, laozhang.ai 플랫폼 간 안전 필터 동작 비교표

Nano Banana Pro 이미지를 제공하는 모든 플랫폼이 동일한 공격성으로 안전 필터를 적용하는 것은 아닙니다. 이러한 차이를 이해하면 특정 사용 사례에 적합한 플랫폼을 선택하는 데 도움이 됩니다. 이 비교는 2026년 3월에 수행된 테스트를 기반으로 하며, 각 플랫폼의 현재 필터링 동작 상태를 나타냅니다. 모든 AI 이미지 생성 API에 대한 더 넓은 관점은 AI 이미지 생성 API 비교를 참조하세요.

Google AI Studio는 Google 생태계에서 가장 관대한 경험을 제공하는 무료 웹 기반 인터페이스입니다. UI의 안전 필터 슬라이더로 감도를 줄일 수 있으며, 전반적인 필터링이 직접 API보다 덜 공격적으로 느껴집니다. 이로 인해 우수한 테스트 환경이 됩니다. 프롬프트가 AI Studio에서는 작동하지만 API를 통해 실패한다면, 문제는 Layer 2가 아니라 safety_settings 구성일 가능성이 높습니다. 그러나 AI Studio는 사용 제한이 엄격하며 프로덕션 배치 처리에는 적합하지 않습니다.

Gemini API(직접)는 두 계층 모두를 최대 강도로 적용합니다. Layer 1은 기본적으로 중간 감도이지만 BLOCK_NONE으로 구성할 수 있습니다. Layer 2는 최대 강도로 실행되며 모든 플랫폼 중 가장 높은 오탐률을 보입니다. 이것이 대부분의 개발자가 사용하는 표준 접근 방법이며, 합법적인 콘텐츠에서 가장 답답한 IMAGE_SAFETY 차단을 경험할 가능성이 높은 곳입니다. 가격 세부 사항 및 티어 정보는 상세 가격 분석을 참조하세요.

Vertex AI는 약간 다른 필터링 동작을 가진 엔터프라이즈 등급 접근을 제공합니다. 두 계층 모두 여전히 활성 상태이지만, 오탐률은 직접 Gemini API보다 다소 낮은 것으로 보이며, 이는 다른 모델 배포 구성 때문일 수 있습니다. Vertex AI는 엔터프라이즈 배포에 중요한 데이터 레지던시 제어 및 규정 준수 기능도 제공합니다.

서드파티 제공업체laozhang.ai는 Gemini API를 통해 요청을 라우팅하지만 Layer 1이 사전에 BLOCK_NONE으로 구성되어 있어 해당 차단 소스를 완전히 제거합니다. 이미지당 약 $0.05로 공식 $0.134 요금보다 약 62% 저렴하여 대량 배치 처리에 최고의 가치를 제공합니다. Layer 2는 여전히 적용되지만(합법적인 제공업체가 서버 측 필터링을 우회할 수 없음), Layer 1 마찰 감소와 낮은 가격의 결합으로 Google의 콘텐츠 정책 내에서 운영되는 이커머스 및 크리에이티브 AI 애플리케이션에 서드파티 제공업체가 선호되는 선택지입니다.

해결할 수 없는 콘텐츠 (언제 멈춰야 하는지 알기)

이 가이드가 알려줄 수 있는 가장 가치 있는 것 중 하나는 언제 시도를 멈춰야 하는지입니다. 특정 콘텐츠 카테고리는 Layer 2의 서버 측 집행에 의해 영구적이고 의도적으로 차단되며, 어떤 프롬프트 엔지니어링, API 구성, 플랫폼 전환으로도 Nano Banana Pro 또는 Google의 이미지 생성 인프라 위에 구축된 서비스를 통해 이러한 이미지를 생성할 수 없습니다.

영구 차단 카테고리에는 다음이 포함됩니다: 아동 성 착취물(CSAM) 및 미성년자를 성적 맥락에서 묘사하는 모든 콘텐츠는 Google뿐만 아니라 전 세계 모든 합법적인 AI 이미지 생성 서비스에서 차단됩니다. 교육적 또는 저널리즘적 목적이 없는 극단적 폭력 및 잔인한 장면은 일관되게 차단됩니다. 성행위를 묘사하는 완전히 노골적인 포르노 콘텐츠는 어떤 프롬프트 엔지니어링 기법으로도 우회할 수 없습니다. 2026년 1월 정책 업데이트 이후, 특정 유명인(특히 정치인, 연예인, 공인)의 사실적 묘사와 저작권 캐릭터(디즈니 캐릭터가 가장 많이 보고됨)도 서버 수준에서 차단되고 있습니다.

영구 차단의 인식 패턴은 간단합니다. 여러 프롬프트 변형, 여러 스타일 접근 방식, 여러 세션에서 일관되게 finishReason: "IMAGE_SAFETY"를 받고, 콘텐츠가 위에 나열된 카테고리 중 하나에 해당한다면, 해당 콘텐츠는 영구적으로 차단된 것입니다. 계속 생성을 시도하면 API 크레딧과 엔지니어링 시간이 낭비됩니다. 생산적인 전진 방향은 차단된 카테고리를 완전히 피하도록 콘텐츠 요구사항을 재구성하거나, 특정 사용 사례에 대해 다른 콘텐츠 정책을 가질 수 있는 대안적 이미지 생성 플랫폼을 평가하는 것입니다. Nano Banana Pro와 다른 모델의 비교는 Nano Banana Pro vs Nano Banana 2 비교에서 최신 모델이 안전을 어떻게 다르게 처리하는지 분석합니다.

이러한 영구 차단이 중요한 법적, 윤리적 이유로 존재한다는 점을 강조할 필요가 있습니다. Google은 특정 카테고리의 콘텐츠 방지를 의무화하는 여러 관할권의 규제 요건에 직면해 있으며, 이들의 접근 방식은 Technology Coalition과 NCMEC과 같은 조직이 수립한 업계 표준에 부합합니다. 이러한 경계를 이해하고 존중하는 것은 책임 있는 AI 이미지 생성의 일부입니다.

2026년 정책 변경 및 파이프라인의 미래 대비

2026년 1분기에는 Nano Banana Pro의 안전 필터 동작에 상당한 변화가 있었으며, Google이 시스템을 계속 개선함에 따라 더 많은 변화가 예상됩니다. 이러한 변화에 발맞추고 탄력적인 아키텍처를 구축하는 것은 프로덕션 배포에 필수적입니다.

2026년 1월에 두 가지 주요 변경이 있었습니다. 첫째, Google은 Layer 2에서 지적 재산 보호를 강화하여 유명인, 브랜드 로고, 저작권 캐릭터에 대한 탐지를 추가했습니다. 디즈니 캐릭터 차단이 가장 눈에 띄는 변화였으며, Google 개발자 포럼에서 광범위한 개발자 불만을 야기했습니다. 둘째, 지역 IP 기반 필터링 제한이 강화된 것으로 보고되었으며, 일부 지역의 개발자들이 이전에 통과했던 콘텐츠에 대해 더 높은 거부율을 경험했습니다. 이러한 변경은 API 변경 없이 서버 측에서 구현되었으며, 기존 코드는 계속 작동했지만 이전에 성공했던 일부 프롬프트가 실패하기 시작했습니다.

2026년 2월 27일에는 Nano Banana 2가 출시되었으며, Pro가 아닌 Gemini 2.5 Flash 기반으로 구축되었습니다. 초기 테스트에 따르면 Nano Banana 2는 약간 다른 안전 필터 보정을 가지고 있으며, 일부 카테고리는 더 관대하고 다른 카테고리는 그렇지 않은 것으로 보입니다. 1K 이미지당 약 $0.067(VentureBeat, 2026년 2월)으로 Nano Banana Pro의 약 절반 비용이므로, 잠재적으로 다른 필터링 동작을 감수할 수 있는 비용에 민감한 애플리케이션에 매력적인 대안입니다. 안전 아키텍처는 동일한 2계층 시스템을 유지하지만, 특정 임계값과 분류 모델은 다릅니다.

미래 대비 파이프라인 구축에는 안전 필터 동작이 계속 변화할 것을 예상해야 합니다. 가장 탄력적인 아키텍처에는 몇 가지 핵심 요소가 포함됩니다. 첫째, finishReason 값을 감지하고 실패를 적절히 라우팅하는 강건한 오류 처리를 구현합니다. Layer 1 실패는 설정 수정으로, Layer 2 실패는 프롬프트 대안으로, 영구 차단은 수동 검토로 보냅니다. 둘째, 핵심 콘텐츠 카테고리에 대한 프롬프트 변형 라이브러리를 유지하여 하나의 프롬프트가 실패하기 시작하면 자동으로 대안을 시도할 수 있도록 합니다. 셋째, 거부율을 시간에 따라 모니터링합니다. 갑작스러운 증가는 일반적으로 정책 변경을 나타냅니다. 넷째, 공식 API에서 실패한 요청을 laozhang.ai와 같은 대안 제공업체로 라우팅할 수 있는 멀티 제공업체 전략을 고려하세요. 이러한 제공업체는 Google의 정책 업데이트를 적용하는 시점이 다를 수 있습니다.

FAQ

Nano Banana Pro에서 안전 필터를 완전히 끌 수 있나요?

네 가지 유해 카테고리(괴롭힘, 혐오 표현, 성적 콘텐츠, 위험 콘텐츠) 모두에 대해 safety_settingsBLOCK_NONE으로 설정하면 Layer 1을 완전히 비활성화할 수 있습니다. 그러나 Layer 2(IMAGE_SAFETY)는 서버 측에서 작동하며, 어떤 API 매개변수, SDK 설정 또는 계정 구성으로도 비활성화할 수 없습니다. 이 2계층 설계는 의도적이며, Google AI Studio, Gemini API, Vertex AI를 포함한 모든 접근 방법에 영향을 미칩니다.

BLOCK_NONE을 설정했는데 왜 이미지가 차단되나요?

이것이 Nano Banana Pro에서 가장 흔한 혼란입니다. BLOCK_NONE 설정은 Layer 1만 비활성화합니다. 응답에 finishReason: "IMAGE_SAFETY"("SAFETY"가 아님)가 표시되면, 차단은 독립적으로 작동하는 Layer 2에서 발생한 것입니다. Layer 2는 AI 분류 및 해시 매칭을 사용하여 생성된 이미지 자체를 분석합니다. 선택지는 프롬프트 엔지니어링(경계선 콘텐츠에서 70-80% 성공률)이거나, 특정 콘텐츠 카테고리가 영구적으로 차단되었음을 받아들이는 것입니다.

Nano Banana 2가 Nano Banana Pro보다 덜 제한적인가요?

2026년 2월 27일에 출시된 Nano Banana 2는 동일한 2계층 안전 아키텍처를 사용합니다. 초기 테스트에 따르면 분류 임계값이 다르게 보정되어 있으며, 일부 카테고리는 약간 더 관대하고 다른 카테고리는 변하지 않았습니다. 이미지당 비용이 Nano Banana Pro의 약 절반($0.067 vs $0.134)이므로, 특정 콘텐츠에 대해 테스트하여 더 적합한지 확인해 볼 가치가 있습니다.

Google AI Studio와 Gemini API의 안전 필터 차이점은 무엇인가요?

Google AI Studio는 일반적으로 직접 Gemini API보다 덜 공격적인 필터링을 적용하며, 특히 경계선 콘텐츠에서 그렇습니다. 두 플랫폼 모두 동일한 2계층 시스템을 사용하지만, AI Studio에서 기본 감도 임계값이 더 낮은 것으로 보입니다. 이로 인해 AI Studio는 진단 도구로 유용합니다. 프롬프트가 거기서는 작동하지만 API를 통해 실패한다면, Layer 1 safety_settings 구성에 집중하세요.

안전 필터 거부로 얼마나 많은 비용을 손실하고 있나요?

공식 Nano Banana Pro API 요금인 2K 이미지당 $0.134(Google AI for Developers 가격, 2026년 3월)에서, 1,000개 이미지 배치의 30% 거부율은 약 $40의 낭비된 API 호출 비용을 의미합니다. 10,000개 이미지에서는 $400입니다. 거부율을 30%에서 10%로 최적화하면 이미지 1,000개당 $27를 절약합니다. laozhang.ai와 같은 제공업체를 이미지당 ~$0.05로 사용하면 이미지당 비용과 낭비되는 거부 비용을 동시에 줄일 수 있습니다.

Google이 언젠가 Layer 2를 설정 가능하게 만들 건가요?

Google이 Layer 2를 설정 가능하게 만들 것이라는 징후는 없습니다. Google은 필터가 "의도한 것보다 더 신중하다"고 공개적으로 인정하고 오탐을 줄이겠다고 약속했지만, 설정 가능한(Layer 1) 필터와 설정 불가능한(Layer 2) 안전의 아키텍처적 분리는 기술적 한계가 아니라 법적 및 규제 요건에 의한 의도적인 설계 결정으로 보입니다.

Share:

laozhang.ai

One API, All AI Models

AI Image

Gemini 3 Pro Image

$0.05/img
80% OFF
AI Video

Sora 2 · Veo 3.1

$0.15/video
Async API
AI Chat

GPT · Claude · Gemini

200+ models
Official Price
Served 100K+ developers
|@laozhang_cn|Get $0.1