GPT-Image-2 API через laozhang.ai теперь можно вызывать как OpenAI-compatible маршрут. Рабочая база: https://api.laozhang.ai/v1, модель: gpt-image-2, цена: $0.03 за вызов. Это подтверждает маршрут провайдера laozhang.ai, но не превращает его в официальную публичную строку модели OpenAI.
Для первой стороны OpenAI по-прежнему нужно смотреть документацию OpenAI: Image API, Responses API image tool и публичные имена моделей GPT Image. Для laozhang.ai ниже важнее практический вопрос: какой endpoint вызвать и как разобрать результат.
| Маршрут | Когда брать | Где остановиться |
|---|---|---|
| OpenAI Image API | Прямая генерация, редактирование, работа с референсами | Используйте только модель и параметры, которые принимает документация OpenAI |
| Responses API image tool | Изображение создается внутри ассистента, цепочки инструментов или многошагового ответа | Не усложняйте маршрут, если нужна просто одна картинка |
| laozhang.ai | Нужен gpt-image-2, совместимый OpenAI endpoint и $0.03 за вызов | Это контракт провайдера, а не доказательство официального OpenAI model row |
Матрица протестированных вызовов laozhang.ai
bashexport LAOZHANG_API_KEY="sk-your-key" export BASE_URL="https://api.laozhang.ai/v1" export MODEL="gpt-image-2"
| Сценарий | Endpoint | Ввод | Возврат по умолчанию | response_format=url | Тест |
|---|---|---|---|---|---|
| Text to image | /v1/chat/completions | JSON messages | Markdown URL в choices[0].message.content | не тестировалось | pass |
| Image edit | /v1/chat/completions | image_url.url как CDN URL | Markdown URL | не тестировалось | pass |
| Image edit | /v1/chat/completions | image_url.url как base64 data URL | Markdown URL | не тестировалось | pass |
| Text to image | /v1/images/generations | JSON prompt | data[0].b64_json | data[0].url | pass |
| Image edit | /v1/images/edits | multipart upload | data[0].b64_json | data[0].url | pass |
У Images API значение b64_json может приходить как полный data URL: data:image/png;base64,.... Перед decode удалите MIME-префикс.
Быстрый ответ
Если важны поддержка OpenAI, прозрачный официальный биллинг и понятная политика, начинайте с OpenAI напрямую. В публичной документации сегодня нужно ориентироваться на текущую семью GPT Image, а не предполагать, что gpt-image-2 уже является открытым идентификатором модели.
Если продукту нужен один запрос и одно изображение, Image API проще. Там легче тестировать параметры, считать стоимость, повторять запрос и обрабатывать результат.
Если изображение является частью диалога, планирования, tool call или состояния ассистента, Responses API может быть лучше. Тогда генерация изображения остается внутри общего ответа модели.
laozhang.ai имеет смысл только как отдельный контракт провайдера. Это может быть удобно, но не доказывает, что OpenAI опубликовала gpt-image-2 как общедоступную модель.
Что считать официальным доказательством

Для OpenAI-стороны нужны первичные материалы: developer docs, список моделей, пример endpoint, ценовая строка или официальное сообщение. Страница провайдера, пост в соцсетях или обзор могут объяснять интерес рынка, но не определяют, что примет ваш OpenAI API key.
Это не формальность. Неправильная строка модели ломает деплой, искажает логи и делает поддержку неясной. В логах нужно отдельно видеть provider, route, model и billing unit.
Как читать laozhang.ai $0.03 за вызов

$0.03 за вызов — это цена провайдера laozhang.ai, а не официальный тариф OpenAI. Она полезна для бюджета, но нужно записать, что именно считается вызовом: запрос, успешная картинка, вариант вывода или ошибка, которая тоже списывается.
Официальная цена OpenAI устроена иначе. Публичные примеры GPT Image 1.5 для 1024 x 1024 показывают разные оценки для low, medium и high качества, а итог зависит от входов, выходов, качества и маршрута. Поэтому прямое сравнение с плоской ценой провайдера без единицы списания не работает.
Для подробной цены используйте GPT-Image-2 API Pricing. Для статуса публичной даты и модели используйте Дата выхода GPT-Image-2 API.
Чек-лист перед продакшеном

Разделите настройки. provider должен показывать openai или laozhang. base_url для этого маршрута должен быть https://api.laozhang.ai/v1. route должен показывать chat_completions, images_generations, images_edits или официальный маршрут. model должен быть реальным значением, которое принимает endpoint.
В Chat Completions извлекайте Markdown URL из choices[0].message.content. В Images API по умолчанию читайте data[0].b64_json; если значение начинается с data:image/png;base64,, удалите префикс перед decode.
Проведите маленький billing test. Сохраните request id, endpoint, модель, размер, качество, число результатов, время ответа, статус ошибки и списанную сумму. Для провайдера отдельно проверьте, списываются ли неуспешные запросы.
Заранее запишите условие переключения. Если OpenAI позже опубликует gpt-image-2 в списке моделей, не меняйте маршрут молча. Сначала сравните одинаковые prompts, размеры, качество и отдельные cost logs.
FAQ
Можно ли сегодня вызывать gpt-image-2 в публичном OpenAI API?
Не стоит предполагать это. На 21 апреля 2026 года открытая строка модели gpt-image-2 в материалах OpenAI не подтверждена.
Что использовать для официальной генерации изображений OpenAI?
Image API подходит для прямой генерации и редактирования. Responses API image tool подходит, когда изображение является шагом внутри ассистента или многошагового сценария.
laozhang.ai $0.03 за вызов — это официальный тариф OpenAI?
Нет. Это цена провайдера laozhang.ai для доступа к gpt-image-2, а не официальный тариф OpenAI. Записывайте endpoint, формат возврата, единицу списания и списание при ошибках.
Когда laozhang.ai может быть разумным выбором?
Когда вам нужен https://api.laozhang.ai/v1, $0.03 за вызов, Markdown URL из Chat Completions или b64_json/URL из Images API. Но это не замена официальному доказательству OpenAI.
Итог
Сначала выбирайте владельца маршрута, потом имя модели. Для laozhang.ai вызывайте https://api.laozhang.ai/v1 с gpt-image-2 за $0.03 за вызов; для официальной работы опирайтесь на текущие GPT Image маршруты OpenAI. Такая схема позволяет строить сейчас и аккуратно переключиться, если OpenAI позже откроет публичный gpt-image-2.
