Le code divulgué suggère que GPT-5.4 bénéficie d'une fenêtre de contexte de 2 millions de jetons
La soumission involontaire de code à un dépôt GitHub public par un ingénieur d'OpenAI a révélé la désignation « gpt-5.4 », déclenchant de vastes spéculations sur une sortie imminente. La fuite a été corroborée par des captures d'écran d'un point d'accès « alpha-gpt-5.4 » circulant sur les médias sociaux. La réponse rapide d'OpenAI — supprimant les publications originales et écrasant le code pour lire « gpt-5.3-codex » — a été interprétée par les observateurs du marché comme une confirmation d'une divulgation non planifiée plutôt que d'une simple erreur.
Les détails divulgués suggèrent un pivot stratégique loin des améliorations de référence incrémentielles. La fonctionnalité phare est une fenêtre de contexte rumeur de 2 millions de jetons, une expansion massive qui, combinée à l'« IA à états » (Stateful AI), conférerait au modèle une mémoire persistante. Cela lui permet de conserver les flux de travail et l'historique des projets d'une session à l'autre, transformant l'expérience utilisateur d'une série de chats disjoints en un partenariat cognitif continu. D'autres fuites signalent une capacité de vision améliorée capable de traiter des octets d'image bruts en pleine résolution, permettant une analyse au pixel près des schémas de conception et d'ingénierie détaillés.
La nouvelle architecture de modèle va déclencher une « guerre de la mémoire » dans le secteur du matériel
La transition vers un modèle avec une vaste fenêtre de contexte et une mémoire d'état persistante est sur le point de créer d'importants changements de demande sur les marchés des semi-conducteurs et du matériel. Cette architecture nécessite une augmentation explosive de la taille du cache Key-Value (KV), imposant des exigences extrêmes en matière de bande passante mémoire. Par conséquent, le marché de la mémoire à large bande passante (HBM) et de la RAM statique (SRAM) est sur le point de connaître une forte augmentation, car ces composants sont essentiels pour gérer les énormes exigences de mémoire du modèle.
Cette évolution logicielle se traduit directement par un défi matériel, poussant les limites de l'infrastructure actuelle. La nécessité de gérer des flux de données aussi importants de manière efficace accélère également la transition des concepts théoriques à la mise en œuvre pratique pour des technologies telles que les interconnexions optiques. La démarche d'OpenAI indique qu'elle a probablement sécurisé l'architecture matérielle sous-jacente pour soutenir ce saut générationnel, positionnant ses partenaires matériels pour une croissance substantielle à mesure que l'industrie suivra le mouvement.