Perplexity Agent API fügt Fallback-Ketten hinzu und veraltet ältere Gemini-Routen
Die neuesten Entwickler-Updates von Perplexity sind nicht nur Funktionserweiterungen. Sie erinnern daran, dass Agentenentwickler jetzt zwei Probleme gleichzeitig bewältigen müssen: Orchestrierungszuverlässigkeit und ständige Anbieterabwanderung.
/v1/modelsEndpunkt und OpenAI-kompatibles Routing, während ältere Gemini-Routen veraltet sind.Was Perplexity geändert hat
In seinen Dokumentenaktualisierungen vom März und April 2026 positionierte Perplexity den Agent API als verwaltete Laufzeit für Agenten-Workflows und nicht nur als einen weiteren Wrapper für Modellaufrufe. Das Unternehmen gibt an, dass die Laufzeit den Abruf, die Tool-Ausführung, die Argumentation und das Multi-Modell-Fallback über einen Endpunkt orchestrieren kann. Außerdem wurden weitere Modelloptionen von Drittanbietern hinzugefügt, darunter GPT-5.4, Claude Sonnet 4.6, NVIDIA Nemotron und Gemini 3.1 Pro Preview.
Gleichzeitig heißt es im Änderungsprotokoll, dass ältere Gemini-Routen schnell hintereinander veraltet und entfernt wurden.google/gemini-2.5-flashwurde am 20. März 2026 entfernt.google/gemini-2.5-proUndgoogle/gemini-3-pro-previewfolgte am 1. April. Perplexity fügte außerdem eine neue nicht authentifizierte Version hinzuGET /v1/modelsEndpunkt, damit Entwickler die aktuelle Verfügbarkeit überprüfen können, bevor sie Annahmen hart codieren.
Warum dies für Agentenentwickler wichtig ist
Es gibt zwei Möglichkeiten, diese Pressemitteilung zu lesen. Die optimistische Lesart ist Bequemlichkeit: ein API-Schlüssel, eine Agentenlaufzeit, eine Kompatibilitätsschicht und einfacherer Austausch zwischen Grenzanbietern. Die operativere Interpretation ist, dass das Routing jetzt Teil Ihrer Zuverlässigkeitsoberfläche ist. Wenn Ihr Agent von einer bestimmten Argumentationsform, einem bestimmten Suchverhalten oder einer Eigenart der strukturierten Ausgabe abhängt, ist eine Fallback-Kette keine freie Abstraktion.
Dies gilt insbesondere für langjährige Forschungsagenten und Codierungsagenten. Eine saubere Abstraktion kann immer noch zu unordentlichen Ausgaben führen, wenn ein Fallback-Modell zusätzliche Toolaufrufe durchführt, den Kontext aggressiver erweitert oder sich unter demselben Prompt-Vertrag anders verhält. Die Modellabwanderung wird schnell zur Token-Abwanderung.
Der TRH-Winkel: Zuverlässigkeit kann Verschwendung verbergen
Bauherren betrachten Modell-Fallback oft als rein positiv, weil es die Betriebszeit verbessert. Es verbessert die Betriebszeit. Es kann aber auch ein verschlechtertes Kostenprofil verschleiern. Wenn eine Route fehlschlägt und eine andere Route die Aufgabe mit längerer Überlegung, mehr Suchvorgängen oder schwächerer First-Pass-Präzision abschließt, „funktioniert“ die Aufgabe immer noch, während die Token-Effizienz stillschweigend abnimmt.
Deshalb ist das Update von Perplexity wichtig. Dadurch wird der API nützlicher, aber auch die Beobachtbarkeit wird wichtiger. Teams sollten protokollieren, welches Modell tatsächlich geantwortet hat, wie viele Schritte verwendet wurden, wie viel Kontext verbraucht wurde und ob ein Fallback die Ausgabe oder die Ausgaben wesentlich verändert hat.
Was Bauherren als nächstes tun sollten
Hören Sie zunächst auf, davon auszugehen, dass Ihre bevorzugte Anbieterroute auch im nächsten Monat noch existiert. Fragen Sie den Modellendpunkt ab, markieren Sie die Modelle, auf die Sie wirklich angewiesen sind, und führen Sie eine getestete Migrationskarte für jeden Agenten. Zweitens: Vergleichen Sie Kosten und Verhalten über Fallback-Ketten hinweg mit demselben Aufgabensatz, anstatt auf „OpenAI-kompatibel“ als Garantie für eine gleichwertige Ausgabe zu vertrauen.
Wenn Sie Forschungsabläufe im OpenClaw-Stil oder im Terminal-First-Format erstellen, sind die aktualisierten Suchintegrationen und strukturierten Ergebnisse von Perplexity hilfreich. Lassen Sie die Bequemlichkeit nicht darüber hinwegtäuschen, dass sich Ihre effektive Laufzeit geändert hat.