El 5 de febrero de 2026, Anthropic y OpenAI decidieron lanzar sus modelos estrella el mismo día. Porque nada dice “estamos tranquilos” como un duelo al amanecer entre dos empresas que se juegan miles de millones.
De un lado, Claude Opus 4.6. Del otro, GPT-5.3 Codex. Ambos prometen ser el mejor programador IA del planeta. Vamos a ver quién se lleva la corona — y por qué probablemente necesites los dos.
Los números: benchmarks que importan
Dejémonos de marketing y vamos a lo que miden los benchmarks reales:
Terminal-Bench 2.0 (tareas reales en terminal: git, builds, debugging):
GPT-5.3 Codex marca un 77,3%. Opus 4.6 lidera con ~80%+. Ventaja Opus, pero por los pelos.
OSWorld (automatización de GUI, usar un ordenador como un humano):
Codex arrasa con un 64,7% — récord absoluto. Claude se queda en ~42%. Aquí no hay debate.
SWE-Bench Verified (resolver issues reales de GitHub):
Opus 4.6 ~80%, Codex ~75%. Claude sigue mandando en ingeniería de software pura.
Velocidad: Codex es un 25% más rápido en respuesta. Si tu workflow es “pregunta-respuesta-pregunta”, se nota.
Contexto: 400K vs 1 millón de tokens
Opus 4.6 ofrece 1 millón de tokens de contexto (en beta). Codex se queda en 256-400K dependiendo de la fuente. En la práctica, esto significa que Opus puede tragarse un repositorio entero de 30.000 líneas de código y analizarlo de una pasada. Codex necesita ir por trozos.
¿Importa? Si trabajas con microservicios pequeños, no. Si necesitas una auditoría de seguridad de un monolito, Opus encuentra vulnerabilidades cross-file que Codex simplemente no ve porque no le cabe todo en la cabeza.
Agent Teams: la baza de Anthropic
La feature más diferencial de Opus 4.6 son los Agent Teams: múltiples agentes trabajando en paralelo, coordinándose entre sí. El ejemplo que más impresiona: 16 agentes construyeron un compilador de 100.000 líneas de código.
OpenAI tiene “Interactive Steering” en Codex, que básicamente es un agente que va pidiendo feedback. Útil, pero no es lo mismo que tener un equipo de agentes autónomos repartiéndose el trabajo.
Para implementar una feature que toca frontend, backend y base de datos: Opus con Agent Teams lo hace en ~20 minutos. Codex, secuencialmente, en ~45. La diferencia es real.
Precio: aquí duele
Las cifras varían según la fuente, pero el consenso es claro:
GPT-5.3 Codex: ~$1,25-6 / millón tokens entrada, ~$10-30 / millón salida.
Opus 4.6: $5 / millón entrada, $25 / millón salida.
En sesiones de uso normal, la diferencia puede ser del 17% al 75% dependiendo del volumen. A escala empresarial, hablamos de miles de euros al mes de diferencia. Pero ojo: coste por token ≠ coste por tarea. Si Opus clava algo a la primera y Codex necesita tres intentos, la ecuación se invierte.
¿Cuál elegir?
Elige GPT-5.3 Codex si:
- Necesitas velocidad y respuestas rápidas
- Tu workflow es terminal-heavy (git, npm, docker)
- Usas GitHub Copilot como asistente principal
- Las tareas son focalizadas y de un solo archivo
- Automatización de GUI / browser testing
Elige Claude Opus 4.6 si:
- Analizas codebases grandes (+10.000 líneas)
- Necesitas auditorías de seguridad o compliance
- Quieres múltiples agentes trabajando en paralelo
- Haces migraciones o refactors a gran escala
- El contexto largo es crítico para tu proyecto
Mi opinión
La realidad es que estamos en un punto donde elegir uno solo es como elegir entre un destornillador y un martillo. Son herramientas diferentes para problemas diferentes.
Lo interesante no es quién “gana” — es que ambos modelos están empujando la programación hacia un paradigma donde el desarrollador dirige en lugar de escribir. Los benchmarks de Terminal-Bench y SWE-Bench ya muestran rendimientos que hace un año parecían ciencia ficción.
La pregunta real ya no es “¿qué modelo de IA uso para programar?” sino “¿cuánto tiempo me queda antes de que mi trabajo sea supervisar agentes que programan solos?”
Spoiler: menos del que piensas. 🥝