GPT‑5.4 mini and nano
Modelos GPT-5.4 mini y GPT-5.4 nano de OpenAI: Eficiencia y Velocidad
Descubre los nuevos modelos GPT-5.4 mini y GPT-5.4 nano de OpenAI, diseñados para ofrecer un rendimiento excepcional en tareas de programación, razonamiento y uso de subagentes con una latencia mínima. GPT-5.4 mini supera a su predecesor con una velocidad 2 veces mayor y capacidades multimodales avanzadas, mientras que GPT-5.4 nano se posiciona como la opción más económica y rápida para clasificación y extracción de datos. Estos modelos optimizan los flujos de trabajo de alta densidad, permitiendo a los desarrolladores ejecutar tareas complejas como la interpretación de interfaces de usuario y la navegación de bases de código con una eficiencia de costos sin precedentes en la API, Codex y ChatGPT.
2026-03-20
191220.1K
GPT‑5.4 mini and nano Información del producto
Introducción a GPT-5.4 mini y GPT-5.4 nano: Los Modelos Más Eficientes de OpenAI
OpenAI ha presentado oficialmente GPT-5.4 mini y GPT-5.4 nano, sus modelos compactos más capaces hasta la fecha. Estas nuevas adiciones a la familia GPT-5.4 están diseñadas específicamente para ofrecer velocidad, eficiencia y un rendimiento optimizado en flujos de trabajo de alto volumen, especialmente en áreas como la programación y el despliegue de subagentes.
¿Qué es GPT-5.4 mini y nano?
GPT-5.4 mini es un modelo de lenguaje de alto rendimiento que mejora significativamente las capacidades de su antecesor, GPT-5 mini. Este modelo destaca por su razonamiento avanzado, comprensión multimodal y habilidades de codificación, funcionando a una velocidad más de dos veces superior. Sorprendentemente, GPT-5.4 mini logra acercarse al rendimiento del modelo GPT-5.4 de tamaño completo en evaluaciones críticas como SWE-Bench Pro.
Por otro lado, GPT-5.4 nano representa la versión más pequeña y económica de la arquitectura GPT-5.4. Está diseñado para casos donde el costo y la latencia son los factores determinantes, siendo ideal para tareas de soporte y automatización a gran escala.
Características Principales
Los modelos GPT-5.4 mini y nano han sido construidos para situaciones donde la latencia moldea directamente la experiencia del usuario. A continuación, se detallan sus características más relevantes:
Rendimiento en Programación
- Velocidad de iteración: Ambos modelos son excepcionales en flujos de trabajo que requieren ediciones rápidas, navegación por bases de código y depuración.
- Superioridad en Benchmarks: GPT-5.4 mini supera consistentemente a GPT-5 mini con latencias similares, ofreciendo uno de los mejores equilibrios entre rendimiento y velocidad del mercado.
Capacidades Multimodales y Uso de Computadora
- Interpretación visual: GPT-5.4 mini puede interpretar rápidamente capturas de pantalla de interfaces de usuario densas, facilitando tareas de uso de computadora.
- Visión en tiempo real: Optimizado para aplicaciones multimodales que requieren razonar sobre imágenes con baja latencia.
Especificaciones Técnicas y Costos
- Ventana de contexto: GPT-5.4 mini cuenta con una ventana de contexto de 400k tokens.
- Costos de GPT-5.4 mini: $0.75 por 1M de tokens de entrada y $4.50 por 1M de tokens de salida.
- Costos de GPT-5.4 nano: $0.20 por 1M de tokens de entrada y $1.25 por 1M de tokens de salida.
Casos de Uso (Use Case)
El despliegue de GPT-5.4 mini y GPT-5.4 nano es ideal para diversas aplicaciones profesionales:
- Asistentes de Codificación: Herramientas que necesitan sentirse receptivas durante la generación de código front-end o la resolución de errores.
- Sistemas de Subagentes: En plataformas como Codex, se puede utilizar el modelo GPT-5.4 principal para la planificación estratégica, delegando tareas específicas y paralelas a subagentes basados en GPT-5.4 mini.
- Procesamiento de Datos: GPT-5.4 nano es la opción recomendada para tareas de clasificación masiva, extracción de datos y clasificación de información.
- Flujos de Trabajo Multimodales: Aplicaciones que requieren analizar documentos complejos o capturas de pantalla de manera económica y veloz.
"GPT-5.4 mini ofrece un sólido rendimiento de extremo a extremo... logró tasas de éxito más altas y una atribución de fuentes más fuerte que el modelo GPT-5.4 más grande en ciertas tareas." — Aabhas Sharma, CTO de Hebbia.
Disponibilidad
- API de OpenAI: Ambos modelos están disponibles. GPT-5.4 mini soporta texto, imágenes, uso de herramientas, búsqueda web y archivos.
- Codex: GPT-5.4 mini está integrado en la aplicación, CLI y extensión de IDE, consumiendo solo el 30% de la cuota de GPT-5.4.
- ChatGPT: Los usuarios de las versiones Free y Go pueden acceder a GPT-5.4 mini a través de la función "Thinking".
Preguntas Frecuentes (FAQ)
¿Cuál es la principal diferencia entre GPT-5.4 mini y GPT-5.4 nano? GPT-5.4 mini es más potente y capaz en tareas multimodales y de razonamiento, mientras que GPT-5.4 nano es la opción más económica y rápida, optimizada para tareas de soporte más simples.
¿Puedo usar GPT-5.4 mini para tareas visuales? Sí, GPT-5.4 mini en la API soporta entradas de imagen y es especialmente fuerte en la interpretación de interfaces de usuario (Computer Use).
¿Cómo ayuda GPT-5.4 mini a reducir costos en Codex? Al delegar tareas de programación menos intensivas a GPT-5.4 mini, los desarrolladores pueden realizar su trabajo por aproximadamente un tercio del costo en comparación con el modelo GPT-5.4 estándar.
¿Qué es un subagente en el contexto de estos modelos? Es un patrón de diseño donde un modelo grande (como GPT-5.4) coordina el trabajo y delega la ejecución de subtareas (como buscar en un archivo) a modelos más rápidos y pequeños como GPT-5.4 mini, optimizando la velocidad y el costo del sistema global.








