Token Robin Hood
Perplexity19 avril 20267 minutes

Perplexity Agent API ajoute des chaînes de secours tout en dépréciant les anciennes routes Gemini

Les dernières mises à jour des développeurs de Perplexity ne sont pas seulement des ajouts de fonctionnalités. Ils rappellent que les créateurs d’agents doivent désormais gérer deux problèmes à la fois : la fiabilité de l’orchestration et le taux de désabonnement constant des fournisseurs.

Ce qui s'est passéPerplexity a élargi son Agent API avec davantage de modèles tiers, un public/v1/modelspoint de terminaison et le routage compatible OpenAI tout en dépréciant les anciennes routes Gemini.
Pourquoi les constructeurs s'en soucientLes environnements d'exécution indépendants du modèle semblent plus propres, mais ils masquent également le risque de migration jusqu'à ce qu'un itinéraire disparaisse ou qu'une chaîne de secours commence à se comporter différemment.
Action TRHAuditez chaque agent pour vérifier l’épinglage du modèle, l’ordre de secours et les budgets de jetons avant qu’une dépréciation côté fournisseur ne se transforme en gaspillage silencieux.

Ce que Perplexity a changé

Dans ses mises à jour de documentation de mars et avril 2026, Perplexity a positionné le Agent API comme un environnement d'exécution géré pour les flux de travail agents, et non comme un simple wrapper de plus pour les appels de modèle. La société affirme que le moteur d'exécution peut orchestrer la récupération, l'exécution des outils, le raisonnement et le repli multimodèle via un seul point de terminaison. Il a également ajouté davantage d'options de modèles tiers, notamment GPT-5.4, Claude Sonnet 4.6, NVIDIA Nemotron et Gemini 3.1 Pro Preview.

Dans le même temps, le journal des modifications indique que les anciennes routes Gemini ont été obsolètes et supprimées rapidement.google/gemini-2.5-flasha été supprimé le 20 mars 2026.google/gemini-2.5-proetgoogle/gemini-3-pro-previewsuivi le 1er avril. Perplexity a également ajouté un nouveauGET /v1/modelspoint de terminaison afin que les constructeurs puissent inspecter la disponibilité actuelle avant de coder en dur les hypothèses.

Pourquoi c'est important pour les constructeurs d'agents

Il existe deux manières de lire ce communiqué. La lecture optimiste est pratique : une clé API, un seul environnement d'exécution d'agent, une couche de compatibilité et un échange plus facile entre les fournisseurs frontières. La lecture la plus opérationnelle est que le routage fait désormais partie de votre surface de fiabilité. Si votre agent dépend d'une forme de raisonnement spécifique, d'un comportement de recherche ou d'une bizarrerie de sortie structurée, une chaîne de secours n'est pas une abstraction gratuite.

Cela est particulièrement vrai pour les agents de recherche et les agents de codage de longue date. Une abstraction propre peut toujours générer des dépenses compliquées lorsqu'un modèle de secours effectue des appels d'outils supplémentaires, étend le contexte de manière plus agressive ou se comporte différemment dans le cadre du même contrat d'invite. Le désabonnement du modèle devient rapidement un désabonnement symbolique.

L’angle TRH : la fiabilité peut cacher le gaspillage

Les constructeurs considèrent souvent le repli du modèle comme purement positif, car il améliore la disponibilité. Cela améliore la disponibilité. Mais cela peut aussi masquer un profil de coûts dégradé. Si une route échoue et qu'une autre route termine le travail avec un raisonnement plus long, plus de recherches ou une précision de premier passage plus faible, la tâche « fonctionne » toujours tandis que l'efficacité du jeton diminue doucement.

C'est pourquoi la mise à jour de Perplexity est importante. Cela rend le API plus utile, mais cela rend également l'observabilité plus importante. Les équipes doivent enregistrer quel modèle a réellement répondu, combien d'étapes ont été utilisées, quelle quantité de contexte a été consommée et si le repli a sensiblement modifié le résultat ou les dépenses.

Ce que les constructeurs devraient faire ensuite

Tout d’abord, arrêtez de supposer que votre itinéraire de fournisseur préféré existera toujours le mois prochain. Interrogez le point de terminaison des modèles, épinglez les modèles dont vous dépendez réellement et conservez une carte de migration testée pour chaque agent. Deuxièmement, comparez le coût et le comportement des chaînes de secours avec le même ensemble de tâches au lieu de faire confiance à « compatible OpenAI » comme garantie d'un résultat équivalent.

Si vous créez des flux de recherche de style OpenClaw ou axés sur le terminal, les intégrations de recherche mises à jour et les résultats structurés de Perplexity sont utiles. Ne laissez pas la commodité cacher le fait que votre durée d’exécution effective a changé.

Sources