Google Deep Research Max añade MCP y elementos visuales nativos: los agentes de investigación se están convirtiendo en constructores reutilizables
La actualización Deep Research del 21 de abril de Google importa menos como función de chatbot y más a medida que se mueven los sistemas de agentes. Gemini Deep Research y Deep Research Max ahora pueden mezclar la web abierta con datos privados, generar gráficos en línea y ejecutarse como trabajos de investigación de antecedentes que alimentan el próximo modelo de la cadena.
Lo que Google realmente envió
Google dice que los nuevos agentes se basan en Gemini 3.1 Pro y ahora admiten flujos de trabajo de investigación que combinan búsqueda web, servidores remotos MCP, archivos cargados, almacenes de archivos conectados, contexto de URL, ejecución de código y búsqueda de archivos. La empresa dividió el producto en dos modos: Deep Research estándar para experiencias interactivas de menor latencia y menor coste, y Deep Research Max para ejecuciones en segundo plano de mayor exhaustividad que utilizan más cómputo en tiempo de prueba.
El anuncio oficial es inusualmente explícito sobre el flujo de trabajo objetivo. El ejemplo de Google no es una consulta de chat del consumidor. Es un trabajo cron nocturno que genera informes de diligencia debida antes de que un equipo de analistas se despierte. Esa es una fuerte señal de que los agentes de investigación se están posicionando como infraestructura para el trabajo posterior, no solo como motores de respuesta.
Por qué esto es importante para los constructores
Aquí hay tres cambios importantes. En primer lugar, Google está convirtiendo la investigación en una etapa de canalización reutilizable. Un equipo puede ejecutar Deep Research para recopilar y sintetizar pruebas, luego usar el Interactions API para entregar ese estado a otro modelo Gemini a través de previous_interaction_id para resumir, reformatear o ejecutar el siguiente paso. En segundo lugar, Google está reduciendo la brecha entre el contexto público y privado al permitir que el agente trabaje a través de la web más fuentes de datos personalizadas. En tercer lugar, los gráficos y las infografías ahora son parte de la misma ejecución en lugar de un paso de visualización separado.
Para los constructores, eso significa que la "investigación profunda" deja de ser una función de interfaz de usuario premium y comienza a parecerse a una clase de trabajo de backend. Los equipos de productos pueden adjuntarlo a resúmenes de investigación, preparación de ventas, flujos de trabajo de cumplimiento, análisis de mercado e investigaciones técnicas. Si funciona bien, reduce el tiempo dedicado a unir manualmente búsquedas, notas, resultados de hojas de cálculo y resúmenes ejecutivos.
La advertencia importante: los documentos aún se están poniendo al día
Hay una advertencia útil oculta en las propias superficies de Google. La publicación del blog dice que Deep Research ahora admite MCPs remotos arbitrarios y herramientas combinadas, pero la página pública de documentos de Interactions API todavía muestra advertencias de la era de vista previa del 15 de abril e ID de modelos más antiguos. Ese desajuste no significa que el lanzamiento sea falso. Significa que la superficie del producto se mueve más rápido que los documentos estables.
Ahí es exactamente donde comienzan el desperdicio de fichas y la confusión del equipo. Si construyes directamente desde la copia del anuncio, corres el riesgo de sobreestimar lo que es estable hoy. Si ignoras el lanzamiento, te pierdes un cambio real en el flujo de trabajo. La regla práctica es tratar a los agentes de investigación como cualquier otro tiempo de ejecución de vista previa: fije el ID exacto del agente o modelo que probó, registre qué combinación de herramientas realmente funcionó y mantenga una ruta alternativa para cuando cambie la superficie beta.
Esta es la misma disciplina operativa que TRH empuja Realidad de cuotas de Google AI Studio y Diseño del tiempo de ejecución del SDK de OpenAI Agents. La compresión del flujo de trabajo solo es valiosa si el tiempo de ejecución permanece legible.
El ángulo TRH: los proyectos de investigación también necesitan presupuestos
Token Robin Hood los lectores deben prestar atención a la forma de facturación, no solo al gráfico de referencia. Deep Research Max está optimizado para la profundidad, lo que generalmente significa carreras más largas, más uso de herramientas, más acumulación de contexto y artefactos de salida más grandes. Eso puede valer la pena cuando el informe es reutilizable o está vinculado a los ingresos.Es un desperdicio cuando el informe muere en una pestaña o se regenera desde cero porque nadie almacenó el resultado en un formulario que el resto de la pila puede consumir.
El patrón correcto es simple. Enlazado al trabajo. Defina qué fuentes de datos están permitidas. Guarde la salida en un formato reutilizable. Encadene solo el siguiente paso del modelo que realmente debe suceder. Si el informe solo se va a pasar por alto una vez, Deep Research Max es probablemente el valor predeterminado incorrecto. Si se convierte en la capa informativa para un agente de codificación, un flujo de trabajo de ventas o una nota operativa, el gasto puede justificarse.
Qué deben hacer los constructores a continuación
Comience con un flujo de trabajo en segundo plano donde la calidad de la investigación importa más que la latencia instantánea: monitoreo competitivo, diligencia debida, seguimiento de políticas, análisis forense de errores o preparación de socios. Compare Deep Research normal con Max en una tarea repetible. Mida el tiempo de ejecución total, la utilidad de la salida y la frecuencia con la que el resultado se puede entregar a un segundo modelo sin repetir todo el problema.Luego decida si la versión cara pertenece a la producción o solo detrás de una puerta humana.
Si tu pila ya utiliza agentes, añade una regla más: los resultados de la investigación deben convertirse en entradas, no en callejones sin salida. Persíguelos, versionalos y mantén explícito el traspaso descendente.