Если нужен короткий ответ для решения прямо сейчас, то он такой: у OpenAI Codex нет одного универсального дневного лимита токенов. Ограничение зависит от того, сидите ли вы на включенном использовании ChatGPT, на Business / Enterprise credits или на API key с usage-based billing.
Если лимит уже мешает работе, не ищите еще одну «правильную» таблицу. Откройте Codex usage dashboard или /status, сначала поймите, смотрите ли вы на subscriber plan, workspace credits или API billing, и только потом сравнивайте цифры для этой ветки. Это быстрее, чем пытаться свести три разных контракта в один мифический daily cap.
Сначала решите, на какой ветке вы вообще находитесь
Многим кажется, что проблема в том, что не хватает одной точной таблицы. На практике для Codex это обычно не так. Формулировка "лимит токенов в день" звучит как один вопрос, но сейчас OpenAI отвечает на него через три разных контракта.
| Что вы используете | Что реально управляет лимитами | Куда смотреть сначала | Что обычно происходит после исчерпания включенного лимита |
|---|---|---|---|
| ChatGPT Plus или Pro | Окна включенного использования по модели и типу активности | Codex usage dashboard и /status | Можно докупить additional credits или вынести часть extra local tasks на API key |
| ChatGPT Business или Enterprise | Либо включенные workspace limits, либо token-based credits, в зависимости от seat type и migration status | Сначала текущий workspace contract, затем Codex pricing / rate card | Flexible-pricing workspaces могут докупать workspace credits |
| API key | Token pricing, context window и account-tier RPM / TPM | API docs и rate-limit contract аккаунта | Вы уже на usage-based billing; вопрос смещается к throughput и spend |
Evidence note: help page, pricing page, rate card, GPT-5.3-Codex API docs и продуктовый пост OpenAI от 2 апреля 2026 года были повторно проверены 8 апреля 2026 года, потому что контракты по лимитам и pricing у Codex все еще меняются.
Смысл этого разделения в скорости решения. Для Plus и Pro полезный ответ уже не выглядит как "сколько токенов в день". Для team seat ответ зависит от того, смотрите ли вы на legacy included usage, flexible pricing или уже на token-metered seat. Для API key разговор вообще идет о throughput и стоимости, а не о subscriber-style quota chart.
Если вам нужен более широкий контекст про сам продукт Codex, а не только про лимиты, дальше стоит читать наш обзор OpenAI Codex за март 2026 года. Эта статья решает более узкую задачу: объяснить контракт лимитов и следующий шаг после него.
Как сейчас читать лимиты Plus и Pro

Для Plus и Pro текущая страница Codex pricing не публикует один daily token cap. Она публикует пятитичасовые окна для local messages и cloud tasks, плюс недельные лимиты для code reviews. Это и есть первое исправление, которое большинству читателей нужно сделать в своей модели.
По состоянию на 8 апреля 2026 года локальные окна выглядят так:
| Модель | Plus local messages / 5h | Pro local messages / 5h | Business local messages / 5h |
|---|---|---|---|
| GPT-5.4 | 33 до 168 | 223 до 1120 | 15 до 60 |
| GPT-5.4-mini | 110 до 560 | 743 до 3733 | 40 до 200 |
| GPT-5.3-Codex | 45 до 225 | 300 до 1500 | 20 до 90 |
На той же странице отдельно указаны cloud tasks и code reviews. Для GPT-5.3-Codex сейчас это 10-60 cloud tasks / 5h и 10-25 code reviews / week на Plus, 50-400 / 5h и 100-250 / week на Pro, а для включенной ветки Business 5-40 / 5h и 15-30 / week.
Но важнее не выучить цифры, а правильно понять, что они значат. OpenAI прямо пишет, что реальный объем зависит от размера задачи, сложности и от того, идет ли работа локально или в облаке. Поэтому безопасная модель звучит не как "мне дают X в день", а как "я получаю текущее окно, чья емкость меняется в зависимости от типа активности".
Именно поэтому чужие скриншоты usage часто сбивают с толку. Один человек может работать в коротких local tasks, другой в более тяжелых cloud flows, и оба числа будут реальными, но не описывать один и тот же контракт. Официальный range стоит читать как датированную форму контракта, а не как жесткую личную гарантию.
Business тоже виден в pricing table, но это не доказательство того, что все Business seats просто больше или меньше Plus / Pro. После апреля 2026 года team contract уже начал заметно ветвиться.
Почему в документации Business и Enterprise здесь пишут messages, а там tokens

Если нынешние Codex docs кажутся противоречивыми, проблема не только в формулировках. Точнее будет сказать так: OpenAI действительно одновременно поддерживает больше одной формы team contract.
Текущий Codex rate card говорит, что с 2 апреля 2026 года новые и существующие ChatGPT Business customers, а также новые ChatGPT Enterprise customers могут использовать token-based credits для Codex вместо старой message-like модели. Но та же самая rate card одновременно говорит, что новые и существующие Plus / Pro users, а также существующие Enterprise / Edu customers могут оставаться на legacy included contract до завершения миграции.
Вот почему одна страница выглядит message-based, а другая token-based. Обе могут быть правильными. Просто они описывают разные seat types и разные migration states.
Именно здесь многие читатели делают неверный вывод. Они видят Business table на pricing page, затем rate card с token credits и решают, что OpenAI противоречит самой себе. Более точное чтение такое: слова "Business" и "Enterprise" больше недостаточны сами по себе. Нужно еще понять, смотрите ли вы на standard ChatGPT seat с included usage, flexible-pricing workspace или уже на newer token-metered Codex seat.
Конкретный пример помогает. В pricing table до сих пор есть included-usage snapshot для Business, например 20-90 GPT-5.3-Codex local messages / 5h. Но это не то же самое, что Codex-only seat, описанный в обновлении от 2 апреля, где fixed rate limits может не быть вообще, а usage billится по token consumption.
Поэтому для workspace полезнее спрашивать не "какой у меня дневной лимит в Codex?", а "я на legacy included usage, flexible credits или уже на token-metered team seat?" После этого нынешние страницы OpenAI перестают казаться хаотичными и начинают выглядеть как слои одного сегментированного контракта.
Что меняется, если вы используете API key
API branch — это снова отдельный контракт. Текущая страница GPT-5.3-Codex API описывает:
- 400,000 tokens context window
- 128,000 max output tokens
- per-token pricing
- account-tier RPM / TPM
Именно поэтому API key нельзя читать через логику subscriber plan. Для API-пользователя полезные лимиты — это throughput, context, output и spend. OpenAI не оформляет API как одну дневную quota, и поэтому универсальный daily token number здесь тоже не помогает.
На 8 апреля 2026 года страница GPT-5.3-Codex показывает такие tier limits:
- Tier 1: 500 RPM и 500,000 TPM
- Tier 2: 5,000 RPM и 1,000,000 TPM
- Tier 3: 5,000 RPM и 2,000,000 TPM
- Tier 4: 10,000 RPM и 4,000,000 TPM
- Tier 5: 15,000 RPM и 40,000,000 TPM
Это не означает, что каждый API account автоматически получает Tier 5. Это означает, что governing model API-ветки — account tier и token throughput, а не subscriber-like daily pool.
Практический вывод простой. Если вам нужно вынести extra local tasks за пределы включенного plan usage, API key может быть разумным overflow route, потому что переводит вопрос в usage-based billing. Но он не отменяет лимиты. Он просто меняет их форму: вместо included headroom вы получаете explicit cost и explicit rate buckets.
Если ваш следующий вопрос — как дешевле всего начать API path, дальше лучше читать наш материал про бесплатный старт с OpenAI API key. Та статья про onboarding и cheapest legitimate start. Эта — про то, почему API contract нельзя смешивать с plan usage.
Что проверить после достижения лимита

Как только вы поняли, на каком surface находитесь, post-limit decision становится заметно проще.
Для Plus и Pro OpenAI прямо пишет, что после исчерпания included usage можно покупать additional credits. Там же сказано, что часть работы можно перевести на GPT-5.4-mini, чтобы включенный лимит жил дольше. То есть нынешняя реальность уже шире старой схемы "ждать reset или upgrade".
Для Business / Edu / Enterprise с flexible pricing OpenAI пишет про additional workspace credits. Это workspace-level route, а не subscriber-level route. Если вы в команде, сначала выясните, не предполагает ли текущий workspace уже собственную credit-модель для overflow, прежде чем искать обходную дорогу через API.
Для extra local tasks OpenAI также прямо указывает путь через API key по standard API rates. Этот вариант полезен тем, кто хочет перевести overflow в usage-based economics, а не просто расширять included headroom. Но он не "автоматически лучше". Он лучше там, где workload shape естественнее укладывается в API economics.
Еще один важный момент — сама monitor surface. В help page OpenAI явно указывает usage dashboard и /status как правильный путь для plan usage. Многие ложные выводы рождаются не из-за отсутствия еще одной цифры, а из-за того, что пользователь смотрит не тот экран, не ту таблицу или вообще сравнивает API docs с subscriber plan.
Самая полезная текущая ментальная модель
Если хочется запомнить только одно правило, пусть это будет оно:
Лимиты Codex сейчас — это вопрос о контракте, а не о единственной цифре.
Для Plus и Pro думайте окнами на 5 часов и недельными activity caps. Для Business и Enterprise думайте seat type, migration status и credits mode. Для API key думайте token pricing, context, output и account-tier throughput. Смешаете это в одну схему — и документы будут казаться противоречивыми. Разделите — и нынешняя логика OpenAI станет намного понятнее.
Поэтому эта страница и заслуживает отдельного места рядом с другими Codex материалами. Обзор марта 2026 года отвечает на вопрос, чем Codex стал как продукт. API key guide отвечает на вопрос о минимальном легитимном старте. А эта статья решает другой reader job: помогает быстро понять, какая limit contract applies to you и какой следующий шаг правильнее.
FAQ
Есть ли у OpenAI Codex один дневной лимит токенов?
Нет. Текущие страницы OpenAI описывают Codex через plan windows, team credits и API rate limits. Один универсальный дневной лимит для всех веток не публикуется.
Лимиты Plus и Pro сейчас действительно дневные?
Нет. Pricing page описывает их через пятитичасовые окна для local и cloud activity и через weekly review limits.
Почему на страницах Business / Enterprise в одном месте messages, а в другом tokens?
Потому что сейчас OpenAI поддерживает несколько team contracts одновременно. После 2 апреля 2026 года часть новых Business / Enterprise customers идет через token-based credits, но legacy included contracts еще существуют.
API key использует те же ограничения, что и мой ChatGPT plan?
Нет. У API свой контракт: token pricing, context and output limits, account-tier RPM / TPM.
Где проверять usage в первую очередь?
Если вы на included plan usage, сначала смотрите Codex usage dashboard и /status. Это текущие официальные monitoring surfaces, на которые указывает OpenAI.
Какой следующий шаг самый чистый после достижения лимита?
Это зависит от ветки. Plus / Pro могут докупать additional credits. Flexible-pricing workspaces могут покупать workspace credits. Extra local tasks можно вынести на API key. Сначала определите ветку, и только потом тратьте деньги.
Ownable synthesis: Полезный ответ на вопрос про "дневной лимит токенов Codex" — не одна цифра, а понимание того, что OpenAI сейчас использует три разных limit contracts, и сначала нужно определить, на каком из них вы находитесь.
