Saltar al contenido principal

Codex config.toml: dónde vive, qué gana y ejemplos seguros

A
9 min de lecturaHerramientas de desarrollo con IA

Codex config.toml no es un bloque gigante para copiar. Pon los defaults personales en `~/.codex/config.toml`, la policy de un proyecto trusted en `.codex/config.toml`, los experimentos en `--config` y los secretos fuera del repo.

Codex config.toml: dónde vive, qué gana y ejemplos seguros

Codex config.toml no empieza con “pega este ejemplo”. Empieza con una decisión de propietario: qué debe vivir en tu configuración personal, qué puede viajar con un repositorio trusted, qué solo debe afectar una ejecución y qué conviene convertir en profile.

Las páginas oficiales de OpenAI sobre Codex config, MCP, authentication y sandbox se revisaron el 21 de abril de 2026. Los comandos locales se comprobaron contra codex-cli 0.121.0, así que conviene volver a mirar codex --help si tu instalación cambia.

Primero elige la capa correcta

Quieres cambiarMejor capaPor qué
Modelo por defecto, approvals, notificaciones, credential store~/.codex/config.tomlDebe seguirte a ti, no al repositorio
Instrucciones del repo, sandbox conservador, defaults MCP de equipo.codex/config.toml en un proyecto trustedEs policy compartida y revisable
Modelo, sandbox o nested key para una sola ejecuciónCLI flag o --configNo muta archivos permanentes
Modo repetible como review o local edit[profiles.<name>]Se activa explícitamente con --profile
Nuevo MCP serverPrimero codex mcp addEl helper reduce errores de TOML y env

Si todavía estás decidiendo entre subscription y API key, empieza por la guía de Codex API key vs subscription. Si el problema es cuota, ve a límites de uso de Codex.

Precedence: qué gana en un conflicto

Escalera sin texto de precedence de Codex config.toml con capas desde overrides hasta defaults

El orden actual, de más fuerte a más débil, es:

RangoCapaConsecuencia
1CLI flags y --configUna ejecución puede pisar todos los archivos inferiores
2Profile seleccionado con --profile <name>Un preset con nombre pisa defaults normales
3Project .codex/config.tomlSolo aplica en proyectos trusted; gana el archivo trusted más cercano al cwd
4User ~/.codex/config.tomlTu capa personal
5System /etc/codex/config.tomlDefaults de máquina u organización
6Built-in defaultsLo que queda cuando nada más define la clave

Por eso, cuando una edición no parece funcionar, revisa primero alias de shell, flags, --config, profile activo, cwd y trust del proyecto.

User config: defaults personales sin secretos

Un archivo pequeño suele ser mejor que una plantilla completa:

toml
#:schema https://developers.openai.com/codex/config-schema.json model = "gpt-5.4" approval_policy = "on-request" sandbox_mode = "workspace-write" allow_login_shell = false cli_auth_credentials_store = "keyring"

Ese bloque fija modelo, approval policy, permisos de workspace, login shell y credential store. No guarda tokens. auth.json puede contener access tokens; no lo compartas ni lo subas al repo. API keys y bearer tokens deben vivir en environment variables, keyring o un secret manager privado.

Project config: policy compartida, no estado privado

Separación sin texto entre private user defaults y shared project policy en Codex config.toml

El project config debe ser conservador:

toml
#:schema https://developers.openai.com/codex/config-schema.json approval_policy = "untrusted" sandbox_mode = "workspace-write" allow_login_shell = false developer_instructions = """ Follow this repository's AGENTS.md. Keep generated assets in documented project paths. Do not commit credentials, auth state, or provider tokens. """

Esto sí es policy de repo. No expone tokens, no abre toda la máquina y no impone tu ruta privada a otras personas. Ten especial cuidado con danger-full-access y approval_policy = "never": juntos solo tienen sentido en un entorno aislado y conscientemente confiable.

MCP y provider route

Para MCP, usa primero el helper:

bash
codex mcp add docs --env DOCS_TOKEN="$DOCS_TOKEN" -- node ./mcp/docs-server.mjs codex mcp get docs --json

Si necesitas TOML directo, deja el secreto fuera:

toml
[mcp_servers.docs] command = "node" args = ["./mcp/docs-server.mjs"] env_vars = ["DOCS_TOKEN"] startup_timeout_sec = 10 tool_timeout_sec = 60 required = true

Para un MCP HTTP, usa una variable:

toml
[mcp_servers.internal_docs] url = "https://mcp.example.com" bearer_token_env_var = "DOCS_MCP_TOKEN" enabled = true required = true

openai_base_url cambia el endpoint del built-in OpenAI provider. No decide por sí solo si estás usando ChatGPT subscription, API billing o una policy de workspace.

Sandbox, approvals, overrides y profiles

Para desarrollo local normal, workspace-write con on-request es un buen punto de partida. Para review, read-only suele ser suficiente. danger-full-access debe reservarse para entornos aislados donde de verdad hace falta autoridad amplia.

Los experimentos van mejor como comando:

bash
codex --model gpt-5.4-mini codex --sandbox read-only codex --config model='"gpt-5.4"' codex --config sandbox_workspace_write.network_access=true

Un preset repetible puede ser profile:

toml
[profiles.review] model = "gpt-5.4" sandbox_mode = "read-only" approval_policy = "on-request"
bash
codex --profile review

OpenAI describe profiles como experimental y no soportados en la IDE extension. Trátalos como comodidad de CLI, no como policy universal de todas las superficies Codex.

Cuando el config no aplica

Flujo sin texto de troubleshooting de Codex config.toml para trust, cwd, overrides, profiles, TOML syntax y MCP checks

RevisaQué mirar
Current commandalias, flags, --config, --profile
Current directorypwd, repo root, nested .codex/config.toml
Project trustproject config se omite si el proyecto no está trusted
TOML syntaxquotes, arrays, table names, schema hint
Key supportofficial config reference y local codex --help
MCP servercodex mcp get <name> --json
Auth stateauth.json, keyring, env vars

Si estás configurando trabajo visual de escritorio o permisos de navegador, esa es otra capa. Para app permissions y browser workflows, usa la guía de Codex Computer Use.

FAQ

¿Dónde está Codex config.toml?

El user config está en ~/.codex/config.toml. Un proyecto trusted puede tener .codex/config.toml. El system config puede estar en /etc/codex/config.toml.

¿Debo poner API keys en config.toml?

No en el project config compartido. Usa environment variables, OS keyring, private user config cuando corresponda o el flujo de autenticación esperado por Codex.

¿Por qué no aplica .codex/config.toml?

Comprueba project trust, cwd, archivos .codex/config.toml más cercanos, selected profile, flags y --config.

¿Cuándo uso --config?

Para experimentos de una ejecución: modelo, sandbox, web/search behavior o nested keys. Si se vuelve hábito, pásalo a user config o profile.

¿danger-full-access es válido?

Sí, pero solo en un entorno aislado donde la tarea necesita broad access. No es un default razonable para un repo compartido.

¿Dónde está el schema oficial?

En https://developers.openai.com/codex/config-schema.json. Puedes añadir #:schema https://developers.openai.com/codex/config-schema.json arriba del TOML si tu editor lo aprovecha.

Share:

laozhang.ai

One API, All AI Models

AI Image

Gemini 3 Pro Image

$0.05/img
80% OFF
AI Video

Sora 2 · Veo 3.1

$0.15/video
Async API
AI Chat

GPT · Claude · Gemini

200+ models
Official Price
Served 100K+ developers
|@laozhang_cn|Get $0.1