El código filtrado sugiere que GPT-5.4 cuenta con una ventana de contexto de 2 millones de tokens
Una presentación de código involuntaria a un repositorio público de GitHub por parte de un ingeniero de OpenAI reveló la designación "gpt-5.4", lo que provocó una amplia especulación sobre un lanzamiento inminente. La filtración fue corroborada por capturas de pantalla de un punto final "alpha-gpt-5.4" que circulaban en las redes sociales. La rápida respuesta de OpenAI, eliminando las publicaciones originales y sobrescribiendo el código para que leyera "gpt-5.3-codex", ha sido interpretada por los observadores del mercado como la confirmación de una divulgación no planificada en lugar de un simple error.
Los detalles filtrados sugieren un giro estratégico lejos de las mejoras incrementales de referencia. La característica principal es una ventana de contexto rumoreada de 2 millones de tokens, una expansión masiva que, combinada con la "IA con estado" (Stateful AI), otorgaría al modelo una memoria persistente. Esto le permite retener flujos de trabajo e historial de proyectos entre sesiones, transformando la experiencia del usuario de una serie de chats inconexos en una asociación cognitiva continua. Otras filtraciones apuntan a una capacidad de visión mejorada que puede procesar bytes de imagen crudos de resolución completa, lo que permite un análisis perfecto de píxeles de diseños detallados y esquemas de ingeniería.
La nueva arquitectura del modelo encenderá una "guerra de la memoria" en el sector del hardware
La transición a un modelo con una vasta ventana de contexto y memoria de estado persistente está destinada a crear cambios significativos en la demanda en los mercados de semiconductores y hardware. Esta arquitectura requiere un aumento explosivo en el tamaño de la caché de clave-valor (KV), lo que impone demandas extremas en el ancho de banda de la memoria. En consecuencia, el mercado de memoria de alto ancho de banda (HBM) y RAM estática (SRAM) está preparado para un aumento, ya que estos componentes son críticos para gestionar los enormes requisitos de memoria del modelo.
Esta evolución del software se traduce directamente en un desafío de hardware, llevando al límite la infraestructura actual. La necesidad de gestionar flujos de datos tan grandes de manera eficiente también está acelerando la transición de conceptos teóricos a la implementación práctica de tecnologías como las interconexiones ópticas. El movimiento de OpenAI indica que probablemente ha asegurado la arquitectura de hardware subyacente para soportar este salto generacional, posicionando a sus socios de hardware para un crecimiento sustancial a medida que la industria siga su ejemplo.