Token Robin Hood
Google22 avril 20267 minutes

Google Deep Research Max ajoute MCP et des visuels natifs : les agents de recherche deviennent des pipelines de création réutilisables

La mise à jour Deep Research de Google du 21 avril est moins importante en tant que fonctionnalité de chatbot qu'en tant que mouvement de systèmes d'agents. Gemini Deep Research et Deep Research Max peuvent désormais mélanger le Web ouvert avec des données privées, générer des graphiques en ligne et exécuter des tâches de recherche en arrière-plan qui alimentent le modèle suivant de la chaîne.

Ce qui s'est passéGoogle a lancé de nouveaux agents Deep Research et Deep Research Max dans l'API Gemini, ajoutant une connectivité MCP, des graphiques natifs, une base multimodale plus riche et une répartition plus rapide par rapport à la profondeur maximale.
Pourquoi les constructeurs s'en soucientLe travail de recherche devient une autre primitive d'exécution composable : rassembler des preuves en arrière-plan, puis transmettre le résultat à un modèle de codage ou d'écriture sans reconstruire la pile de contexte à partir de zéro.
Action TRHUtilisez des agents de recherche pour des tâches en arrière-plan limitées avec des budgets de rapport explicites, des sorties persistantes et une étape de transfert claire au lieu de traiter chaque exécution de recherche approfondie comme une boucle de discussion ouverte.

Ce que Google a réellement expédié

Google affirme que les nouveaux agents sont construits sur Gemini 3.1 Pro et prennent désormais en charge les flux de travail de recherche qui combinent la recherche sur le Web, les serveurs MCP distants, les fichiers téléchargés, les magasins de fichiers connectés, le contexte d'URL, l'exécution de code et la recherche de fichiers. La société a divisé le produit en deux modes : Deep Research standard pour des expériences interactives à faible latence et à moindre coût, et Deep Research Max pour des exécutions en arrière-plan plus complètes qui utilisent davantage de calculs de temps de test.

L'annonce officielle est inhabituellement explicite sur le flux de travail cible. L'exemple de Google n'est pas une requête de chat consommateur. Il s'agit d'un travail cron nocturne qui génère des rapports de diligence raisonnable avant qu'une équipe d'analystes ne se réveille. C’est un signal fort selon lequel les agents de recherche sont positionnés comme une infrastructure pour le travail en aval, et non comme de simples moteurs de réponse.

Pourquoi c'est important pour les constructeurs

Il y a ici trois changements importants. Premièrement, Google transforme la recherche en une étape de pipeline réutilisable. Une équipe peut exécuter Deep Research pour collecter et synthétiser des preuves, puis utiliser l'API Interactions pour transmettre cet état à un autre modèle Gemini via previous_interaction_id pour résumer, reformater ou exécuter l’étape suivante. Deuxièmement, Google réduit l'écart entre les contextes public et privé en permettant à l'agent de travailler sur le Web ainsi que sur des sources de données personnalisées. Troisièmement, les graphiques et les infographies font désormais partie de la même exécution au lieu d'une étape de visualisation distincte.

Pour les constructeurs, cela signifie que la « recherche approfondie » cesse d’être une fonctionnalité premium de l’interface utilisateur et commence à ressembler à une classe d’emplois back-end. Les équipes produit peuvent le joindre aux notes de recherche, à la préparation des ventes, aux flux de travail de conformité, aux analyses de marché et aux enquêtes techniques. Si cela fonctionne bien, cela réduit le temps passé à assembler manuellement la recherche, les notes, les résultats de feuilles de calcul et les résumés.

La mise en garde importante : les documents sont encore en train de rattraper leur retard

Il y a un avertissement utile caché dans les propres surfaces de Google. Le billet de blog indique que Deep Research prend désormais en charge les MCP distants arbitraires et les outils combinés, mais la page de documentation publique de l'API Interactions affiche toujours les mises en garde de l'ère de prévisualisation du 15 avril et les anciens identifiants de modèle. Cette inadéquation ne signifie pas que le lancement est faux. Cela signifie que la surface du produit se déplace plus rapidement que les documents stables.

C’est exactement là que commencent le gaspillage de jetons et la confusion au sein de l’équipe. Si vous construisez directement à partir d’une copie d’annonce, vous risquez de surestimer ce qui est stable aujourd’hui. Si vous ignorez le lancement, vous ratez un véritable changement de workflow. La règle pratique consiste à traiter les agents de recherche comme n'importe quel autre environnement d'exécution d'aperçu : épinglez l'ID exact de l'agent ou du modèle que vous avez testé, enregistrez la combinaison d'outils qui a réellement fonctionné et conservez un chemin de secours lorsque la surface bêta change.

C'est la même discipline opérationnelle que TRH impose Réalité des quotas de Google AI Studio et Conception du runtime du SDK OpenAI Agents. La compression du flux de travail n'est utile que si le runtime reste lisible.

L’angle TRH : les pipelines de recherche ont aussi besoin de budgets

Token Robin Hood les lecteurs doivent prêter attention à la forme de facturation, pas seulement au graphique de référence. Deep Research Max est optimisé pour la profondeur, ce qui signifie généralement des exécutions plus longues, une plus grande utilisation des outils, une plus grande accumulation de contexte et des artefacts de sortie plus volumineux. Cela peut en valoir la peine lorsque le rapport est réutilisable ou lié aux revenus. C'est un gaspillage lorsque le rapport meurt dans un onglet ou est régénéré à partir de zéro, car personne n'a stocké le résultat sous une forme que le reste de la pile peut consommer.

Le bon modèle est simple. Lié le travail. Définissez les sources de données autorisées. Enregistrez la sortie dans un format réutilisable. Enchaînez uniquement la prochaine étape du modèle qui doit réellement avoir lieu. Si le rapport doit être parcouru une seule fois, Deep Research Max n'est probablement pas la bonne valeur par défaut. S'il s'agit de la couche d'information d'un agent de codage, d'un flux de travail de vente ou d'un mémo opérationnel, les dépenses peuvent se justifier.

Ce que les constructeurs devraient faire ensuite

Commencez par un flux de travail en arrière-plan où la qualité de la recherche compte plus que la latence instantanée : surveillance de la concurrence, diligence raisonnable, suivi des politiques, analyse des bogues ou préparation des partenaires. Comparez Deep Research régulière à Max sur une tâche répétable. Mesurez la durée d'exécution totale, l'utilité de la sortie et la fréquence à laquelle le résultat peut être transmis à un deuxième modèle sans reformuler l'ensemble du problème. Décidez ensuite si la version coûteuse appartient à la production ou seulement derrière une porte humaine.

Si votre pile utilise déjà des agents, ajoutez une règle supplémentaire : les résultats de la recherche doivent devenir des intrants, et non des impasses. Conservez-les, versionnez-les et gardez le transfert en aval explicite.

Sources