GPT-5.4 Mini réduit l'écart de performance à 3,3 % avec un coût 70 % inférieur
Le 17 mars, OpenAI a lancé deux nouveaux modèles d'intelligence artificielle plus petits, GPT-5.4 mini et nano, modifiant fondamentalement l'équation coût-performance pour les développeurs. Le modèle GPT-5.4 mini offre des performances qui rivalisent étroitement avec son homologue phare, GPT-5.4, mais à un prix considérablement inférieur. Le prix de l'API du mini est fixé à 0,75 $ par million de jetons d'entrée et 4,50 $ par million de jetons de sortie, ce qui représente une réduction de coût de 70 % par rapport aux taux respectifs du modèle phare de 2,50 $ et 15,00 $.
Cette efficacité des coûts ne s'accompagne pas d'un compromis majeur en termes de capacités. Sur le benchmark SWE-bench Pro, qui teste la capacité à résoudre des problèmes GitHub réels, le GPT-5.4 mini a obtenu un score de 54,4 %, soit seulement 3,3 points de pourcentage de moins que les 57,7 % du modèle phare GPT-5.4. Dans les tâches d'opération informatique mesurées par le benchmark OSWorld-Verified, le modèle mini a obtenu 72,1 %, atteignant presque les 75,0 % du modèle phare et dépassant légèrement la base humaine de 72,4 %.
Les nouveaux modèles permettent une architecture de « sous-agents » pour les flux de travail IA
Cette publication signale une poussée stratégique vers des systèmes multi-modèles où une IA puissante agit comme coordinateur pour des modèles plus petits et plus rapides. Cette architecture de « sous-agents » permet aux développeurs de déléguer des tâches à grand volume et moins complexes à des modèles moins chers, réservant l'IA phare coûteuse pour la planification et le raisonnement de haut niveau. Par exemple, au sein de l'assistant de programmation Codex d'OpenAI, GPT-5.4 peut orchestrer des tâches tandis que les sous-agents GPT-5.4 mini gèrent des travaux parallèles comme la recherche de code et la révision de fichiers à environ un tiers du coût.
Cette approche est essentielle pour les applications sensibles à la latence où la vitesse de réponse a un impact direct sur l'expérience utilisateur. La capacité des nouveaux modèles à gérer de manière fiable des appels d'outils complexes à faible coût est un progrès significatif pour l'industrie.
Jusqu'à récemment, seuls les modèles les plus chers pouvaient naviguer de manière fiable dans les appels d'outils d'agent. Aujourd'hui, des modèles plus petits comme GPT-5.4 mini et nano peuvent le gérer facilement, ce qui permettra à nos utilisateurs de créer des agents personnalisés sur Notion et de choisir exactement la quantité d'intelligence dont ils ont besoin.
— Abhisek Modi, Responsable de l'ingénierie IA chez Notion.
GPT-5.4 Nano cible les tâches à grand volume à 0,20 $ par million de jetons
Positionné comme l'option la plus économique, GPT-5.4 nano est disponible exclusivement via l'API d'OpenAI et son prix n'est que de 0,20 $ par million de jetons d'entrée et 1,25 $ par million de jetons de sortie. OpenAI a conçu ce modèle spécifiquement pour les tâches à haute fréquence et à faible complexité telles que la classification de données, l'extraction de texte et le support de codage simple.
Bien que les performances de nano sur les tâches visuelles comme OSWorld-Verified soient inférieures à celles de ses prédécesseurs, il démontre une amélioration significative par rapport aux modèles petits précédents dans les benchmarks de raisonnement et d'utilisation d'outils. Par exemple, son score de 82,8 % au test d'intelligence générale GPQA Diamond surpasse les 81,6 % de l'ancien GPT-5 mini. L'introduction de nano offre aux développeurs un outil hautement spécialisé pour construire des systèmes d'IA rentables où la vitesse et le budget sont les principales contraintes.