Os agentes de IA baseiam suas ações nas informações que percebem. No entanto, eles frequentemente carecem do conhecimento completo necessário para lidar com cada subtarefa dentro de um objetivo complexo. Para superar essa lacuna, eles recorrem a ferramentas disponíveis, como conjuntos de dados externos, pesquisas na web, APIs e até mesmo outros agentes.
Depois que as informações ausentes são coletadas, o agente atualiza sua base de conhecimento e se envolve no raciocínio agêntico. Esse processo envolve a reavaliação contínua de seu plano de ação e a realização de autocorreções, o que permite uma tomada de decisão mais informada e adaptável.
Para ajudar a ilustrar esse processo, imagine um usuário planejando as férias. O usuário encarrega um agente de IA de prever qual semana do próximo ano provavelmente terá o melhor clima para sua viagem de surfe na Grécia.
Como o modelo LLM no núcleo do agente não é especializado em padrões climáticos, ele não pode confiar apenas em seu conhecimento interno. Por isso, o agente reúne informações de um banco de dados externo que contém relatórios meteorológicos diários da Grécia dos últimos anos.
Apesar de adquirir essas novas informações, o agente ainda não consegue determinar as condições climáticas ideais para surfar e, portanto, a próxima subtarefa é criada. Para essa subtarefa, o agente se comunica com um agente externo especializado na prática de surfe. Digamos que, ao fazer isso, o agente aprenda que as marés altas e o tempo ensolarado com pouca ou nenhuma chuva proporcionam as melhores condições para a prática de surfe.
Com isso, o agente pode combinar as informações que aprendeu com suas ferramentas para identificar padrões. Ele pode prever qual semana do próximo ano na Grécia provavelmente terá marés altas, tempo ensolarado e pouca chance de chuva. Essas descobertas são, então, apresentadas ao usuário. Esse compartilhamento de informações entre as ferramentas é o que permite que os agentes de IA sejam mais generalistas do que os modelos tradicionais de IA.3