Token Robin Hood
OpenAI25 avril 20265 minutes

OpenAI GPT-5.5 met en jeu l'efficacité des agents de codage : plus de travail effectué, moins de jetons, même latence

Le lancement du GPT-5.5 par OpenAI le 23 avril est facile à lire comme une autre mise à niveau du modèle. L'angle constructeur le plus utile est opérationnel. OpenAI indique que GPT-5.5 améliore les performances de codage et d'utilisation de l'ordinateur tout en utilisant moins de jetons sur les mêmes tâches Codex, et le 24 avril, il a également confirmé la disponibilité de API. Cela change la façon dont les équipes doivent évaluer les agents de codage : non seulement en fonction du score de référence ou du prix par jeton, mais également en fonction de la quantité de travail réel effectué par exécution avant que les frictions de révision n'apparaissent.

Ce qui s'est passéOpenAI a lancé GPT-5.5 le 23 avril 2026, puis a mis à jour la version le 24 avril pour indiquer que GPT-5.5 et GPT-5.5 Pro sont disponibles dans API.
Pourquoi les constructeurs s'en soucientOpenAI définit explicitement la victoire comme un travail de codage plus complet avec moins de jetons et une latence de service similaire, et pas seulement comme un modèle plus intelligent.
Action TRHSuivez le coût par tâche terminée, le nombre de nouvelles tentatives et examinez la charge lorsque vous comparez GPT-5.5 à votre agent de codage actuel par défaut.

La véritable mesure est le travail terminé par exécution

OpenAI affirme que GPT-5.5 est son modèle de codage agent le plus puissant à ce jour, citant des gains sur Terminal-Bench 2.0, SWE-Bench Pro, Expert-SWE, OSWorld-Verified, Toolathlon et BrowseComp. C'est un contexte utile, mais la phrase la plus précise pour les opérateurs se trouve ailleurs dans la version : GPT-5.5 atteint souvent des sorties de meilleure qualité avec moins de jetons et moins de tentatives, tout en correspondant à la latence par jeton de GPT-5.4 dans le service réel.

C’est important car la partie coûteuse des agents de codage n’est souvent pas une seule inférence. C'est toute la boucle : planifier, inspecter les fichiers, appeler les outils, réessayer, tester, réparer et revenir manuellement pour révision. Si un modèle boucle davantage cette boucle avant de s’effondrer, la métrique utile devient le travail terminé par exécution. Pour Token Robin Hood lecteurs, c’est un meilleur objectif que de rechercher une capture d’écran de référence brute ou de discuter isolément du prix catalogue.

OpenAI élargit également l'histoire opérationnelle du Codex

GPT-5.5 correspond à une séquence OpenAI plus large. Codex Les programmes de déploiement en laboratoire et en entreprise ont favorisé une adoption gouvernée. Agents Workspace Agents étendus aux flux de travail d'équipe. Le mode WebSocket dans les réponses API a rendu les boucles d'agent moins chères en termes de latence. GPT-5.5 ajoute une revendication au niveau du modèle : le même flux de travail peut désormais se terminer avec moins de traînée de jeton.

Cela fait de GPT-5.5 moins une version isolée et davantage une couche d'efficacité à travers la pile. Si votre équipe dispose déjà de flux d'agents, d'évaluations et de révisions, la question n'est pas « GPT-5.5 est-il plus intelligent ? » La question est « est-ce qu’il ferme plus de tickets, de refactors et de sessions de débogage avant que la correction humaine ne devienne un goulot d’étranglement ? »

Pourquoi la mise à jour API du 24 avril est importante La note de version de

OpenAI a été mise à jour le 24 avril 2026 pour indiquer que GPT-5.5 et GPT-5.5 Pro sont disponibles dans API. C'est important car cela fait passer GPT-5.5 de l'excitation du produit à la planification du constructeur. La discussion sur Reddit a immédiatement reflété le problème pratique : les gens essayaient déjà de l'utiliser dans les flux de travail Codex et CLI, et attendaient le moment où le modèle deviendrait réellement sélectionnable sur toutes les surfaces.

Pour les équipes exécutant des agents de codage internes, la disponibilité API est la ligne qui transforme un lancement en quelque chose de comparable dans votre propre environnement. Une fois que le modèle est accessible par programme, vous pouvez comparer le taux d'achèvement des tâches, les dépenses en jetons, le temps d'horloge mural et examiner les différences par rapport à votre référence actuelle au lieu de tout déduire des graphiques des fournisseurs.

Ce que les équipes devraient faire ensuite

Exécutez GPT-5.5 sur un ensemble d'évaluation étroit et à signal élevé : corrections de bogues avec des tests, conflits de fusion de branches, refactorisations à l'échelle du dépôt et boucles de débogage utilisant des outils. Mesurez la consommation totale de jetons, les tentatives par tâche, les modifications humaines après l'arrêt de l'agent et la fréquence à laquelle le premier plan était correct dans la direction. Si GPT-5.5 réduit la charge de nettoyage, c'est un véritable gain d'exploitation. Sinon, la victoire de référence est moins importante qu’il n’y paraît.

Les équipes qui bénéficieront de cette version seront celles qui compareront le travail fini, et pas seulement les étiquettes des modèles. Sources