Por: Wired. 25/03/2025
Deep Research, el agente de IA centrado en la investigación, muestra una nueva generación de modelos artificiales más sofisticados que podrían automatizar algunas tareas de oficina.
Isla Fulford, investigadora de OpenAI, tenía la corazonada de que Deep Research sería un éxito incluso antes de su lanzamiento. Fulford ayudó a crear el agente de IA que explora la web de forma autónoma, decidiendo por sí mismo en qué enlaces hacer clic, qué leer y qué recopilar para elaborar un informe detallado.
En un principio, OpenAI puso Deep Research a disposición de los usuarios internos. Fulford cuenta que, cada vez que dejaba de funcionar, recibía múltiples consultas de colegas ansiosos por recuperarlo: “La cantidad de gente que me enviaba mensajes de texto nos entusiasmaba”. Desde que se puso a disposición del público el 2 de febrero, Deep Research ha demostrado ser un éxito entre muchos usuarios ajenos a la empresa.
Deep Research tiene reseñas positivas
“Deep Research ha escrito 6 informes hasta el momento hoy. Es excelente. Enhorabuena a la gente que está detrás”, publicó Patrick Collison, CEO de Stripe, en X unos días después de que se lanzara el producto. Dean Ball, investigador de la Universidad George Mason especializado en política de IA, también compartió su emoción: “Deep Research es el producto de IA que realmente ha conseguido que una parte significativa de la comunidad política de Washington D.C. empiece a sentir la inteligencia artificial general (IAG)”.
Deep Research forma parte del plan ChatGPT Pro, que cuesta 200 dólares al mes. Este recibe una consulta, como: “Escribe un informe sobre el sector de los seguros médicos de Massachusetts” o “Háblame de la cobertura de WIRED sobre el Departamento de Eficiencia Gubernamental“; y luego elabora un plan, buscando sitios web relevantes, analizando su contenido y decidiendo qué información merece una investigación más profunda. Después de explorar durante unos minutos, sintetiza sus conclusiones en un informe detallado, que puede incluir citas, datos y gráficos.
Muchas herramientas actualmente calificadas como agentes de IA son esencialmente chatbots conectados a programas sencillos sin mucha sofisticación. El propio modelo de Deep Research pasa por un tipo de razonamiento artificial antes de idear un plan y avanzar en cada paso. El modelo ofrece detalles de este razonamiento detrás de su investigación en una ventana lateral.
“A veces es como ‘tengo que dar marcha atrás, esto no parece tan prometedor’. Es genial leer algunas de esas trayectorias, solo para entender cómo está pensando el modelo”, refiere Josh Tobin, otro investigador de OpenAI que participa en la construcción del agente de IA.
Indudablemente, la compañía de Sam Altman ve Deep Research como una herramienta que podría asumir más trabajo de oficina. “Esto es algo que podemos ampliar”, indica Tobin, añadiendo que el agente podría ser entrenado para realizar trabajos específicos. Por ejemplo, un agente con acceso a los datos internos de una empresa podría preparar un informe o una presentación rápidamente. Tobin describe que el objetivo a largo plazo es “construir un agente que no solo sea bueno elaborando informes mediante búsquedas en la web, sino que también sea competente en muchos otros tipos de tareas”.
Dado que Deep Research fue entrenado para analizar y resumir texto escrito por humanos, Tobin declara a WIRED que a su equipo le sorprendió ver que mucha gente lo utilizaba para generar código: “Es una cuerda interesante de la que tirar. No estamos totalmente seguros de qué pensar al respecto”. Sin embargo, admite que la herramienta aún tiene puntos ciegos: “Le cuesta distinguir la información fidedigna de los rumores. Actualmente muestra una debilidad en la calibración de la confianza, y a menudo no transmite la incertidumbre con precisión”.
La era del razonamiento
Según Ethan Mollick, profesor de la Wharton School de la Universidad de Pensilvania que estudia la adopción de la IA por parte de las empresas, Deep Research muestra cómo modelos de IA más capaces podrían automatizar el trabajo de oficina.
Mollick utiliza Deep Research con regularidad y asegura que, aunque la herramienta es imperfecta, los expertos pueden comprobar su trabajo, impresionando a los profesionales con los que ha hablado. “Para la gente de alto nivel no se trata de que sea impecable o que supere a los mejores. Es que puede hacer 40 horas de trabajo de nivel medio, y solo se tarda una hora”.
Aún está por ver si las empresas verán estas herramientas como una forma de aumentar a sus trabajadores o simplemente de sustituirlos al por mayor. “Eso es lo que más me preocupa”, confiesa Mollick. La perspectiva de vender herramientas que pueden automatizar grandes cantidades de trabajo de oficina altamente cualificado quizás explique por qué OpenAI está considerando ofrecer agentes avanzados a un precio muy elevado. Según un informe realizado por The Information, la empresa ha dicho a los inversionistas que los agentes de IA capaces de hacer “trabajo de nivel de doctorado” podrían llegar a costar 20,000 dólares al mes, aunque los detalles de ese plan siguen sin estar claros. La portavoz de OpenAI, Kayla Wood, describe el informe como “mera especulación”.
Además de insinuar cambios en el trabajo de oficina, Deep Research retrata cómo la investigación de vanguardia en inteligencia artificial se centra cada vez más en agentes de IA y en los llamados modelos de razonamiento que descomponen los problemas en partes constituyentes para analizarlos y resolverlos mejor. Los principales rivales de OpenAI están desarrollando sus propios modelos de razonamiento y herramientas similares a Deep Research. El 10 de diciembre de 2024, Google DeepMind lanzó un agente de investigación web con el mismo nombre que la herramienta de OpenAI. Elon Musk también ofrece su modelo de IA Grok con una función similar.
Deep Research parece ser la oferta más sofisticada actualmente, en parte porque se basa en el modelo de razonamiento más avanzado de OpenAI, llamado OpenAI o3. Mientras que un gran modelo de lenguaje convencional se limita a generar texto en respuesta a una consulta, el nuevo agente de IA utiliza una forma de razonamiento simulado para decidir qué acciones tomar a continuación. Estas capacidades “agentes” se consideran el siguiente paso evolutivo de la inteligencia artificial, aunque sigue siendo difícil conseguir que los modelos actúen sin cometer errores.
“La investigación profunda es una extensión natural de estos modelos de razonamiento”, expresa Ruslan Salakhutdinov, informático de la Universidad Carnegie Mellon que también trabaja en agentes web. Sin embargo, Salakhutdinov afirma que los agentes de IA aún están en una fase temprana, son propensos a errores y es probable que haya mucha experimentación e innovación por delante.
Todas las manos a Deep Research son bienvenidas
OpenAI contrató a estudiantes de posgrado y otros profesionales altamente calificados para ayudar a entrenar a Deep Research. Estos usuarios realizan consultas y luego corrigen errores, proporcionando datos de entrenamiento para un algoritmo de aprendizaje por refuerzo que apoyará la misión del modelo de convertirse en un mejor asistente de investigación.
WIRED habló con varios formadores de Deep Research, que también parecían impresionados por la herramienta. “Lo primero que hace es pedir aclaraciones, y eso es enorme. Es casi como una comunicación, y de repente se convierte en tu asistente”, celebra Olga Schrivner, lingüista del Instituto de Tecnología Rose-Hulman que ayuda en el entrenamiento de Deep Research.
“Mi abuelo es matemático. Quería que demostrara lo que se llama el teorema de Schroeder-Bernstein. Se lo di, y reprodujo una prueba muy larga. No entiendo nada, pero como matemático, le entusiasma”, menciona Alexander Zerkle, un estudiante de posgrado en microbiología de la UC San Diego que ha proporcionado datos de entrenamiento para Deep Research.
A medida que herramientas como Deep Research se generalicen, podrían cambiar la forma en que mucha gente utiliza la web, incluso cuando la manía que acompañó al boom de los chatbots empiece a desvanecerse. Amelia Glaese, que dirige el trabajo sobre alineación en OpenAI, reafirma que no importa lo inteligente que sea un chatbot, un modelo de IA que va más allá de generar texto, tomando acciones y haciendo un trabajo valioso, es una propuesta diferente: “Tienes un modelo con una gran utilidad, que ha aprendido a hacer parte del trabajo manual de investigación. Creo que hay un nuevo grupo de gente que dice: ‘Vaya, esto es realmente útil'”.
Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.
LEER EL ARTÍCULO ORIGINAL PULSANDO AQUÍ
Fotografía: Wired