Los agentes de IA basan sus acciones en la información que perciben. Sin embargo, a menudo carecen del conocimiento completo necesario para abordar cada subtarea dentro de un objetivo complejo. Para cerrar esta brecha, recurren a las herramientas disponibles, como conjuntos de datos externos, búsquedas web, API e incluso otros agentes.
Una vez que se recopila la información faltante, el agente actualiza su base de conocimientos y participa en el razonamiento agentivo. Este proceso implica reevaluar continuamente su plan de acción y hacer autocorrecciones, lo que permite una toma de decisiones más informada y adaptable.
Para ilustrar este proceso, imaginemos a un usuario planeando sus vacaciones. El usuario encomienda a un agente AI predecir cuál sería la semana del año próximo con el mejor clima para su viaje de surf en Grecia.
Debido a que el modelo LLM en el núcleo del agente no se especializa en patrones climáticos, no puede confiar únicamente en su conocimiento interno. Por lo tanto, el agente recopila información de una base de datos externa que contiene informes meteorológicos diarios para Grecia durante los últimos años.
A pesar de adquirir esta nueva información, el agente aún no puede determinar las condiciones climáticas óptimas para navegar, por lo que se crea la siguiente subtarea. Para esta subtarea, el agente se comunica con un agente externo que se especializa en surfear. Digamos que, al hacerlo, el agente aprende que las mareas altas y el clima soleado con poca o ninguna lluvia proporcionan las mejores condiciones para surfear.
El agente ahora puede combinar la información que ha aprendido de sus herramientas para identificar patrones. Puede predecir qué semana del próximo año en Grecia probablemente habrá mareas altas, clima soleado y pocas probabilidades de lluvia. Estos hallazgos se presentan entonces al usuario. Este intercambio de información entre herramientas es lo que permite a los agentes de IA ser más polivalentes que los modelos de IA tradicionales.3