O que são agentes de IA?

Autores

Anna Gutowska

AI Engineer, Developer Advocate

IBM

O que são agentes de IA?

Um agente de inteligência artificial (IA) é um sistema que realiza tarefas de forma autônoma por meio da criação de fluxos de trabalho com as ferramentas disponíveis.

Os agentes de IA podem abranger uma ampla variedade de funções além do processamento de linguagem natural, inclusive tomada de decisão, resolução de problemas, interação com ambientes externos e execução de ações.

Os agentes de IA resolvem tarefas complexas em aplicações empresariais, incluindo design de software, automação de TI, geração de código e assistência conversacional. Eles fazem uso de técnicas avançadas de processamento de linguagem natural de grandes modelos de linguagem (LLMs) para compreender e responder às entradas dos usuários passo a passo e determinar quando recorrer a ferramentas externas.

Como funcionam os agentes de IA

No cerne dos agentes de IA estão os grandes modelos de linguagem (LLMs). Por esse motivo, os agentes de IA costumam ser chamados de agentes de LLMs. Os LLMs tradicionais, como os modelos IBM® Granite, produzem suas respostas com base nos dados usados para treiná-los e possuem limitações de conhecimento e raciocínio. Em contrapartida, a tecnologia agêntica usa chamadas de ferramentas no back-end para receber informações atualizadas, otimizar o fluxo de trabalho e criar subtarefas de modo autônomo para atingir objetivos complexos.

Nesse processo, o agente autônomo aprende a se adaptar às expectativas do usuário ao longo do tempo. A capacidade do agente de armazenar interações passadas na memória e planejar ações futuras incentiva uma experiência personalizada e respostas abrangentes.1 Essas chamadas de ferramentas podem ser realizadas sem intervenção humana e ampliam as possibilidades de aplicações desses sistemas de IA no mundo real. Esses três estágios, ou componentes agênticos, definem como os agentes operam:

Inicialização e planejamento de objetivos

Embora os agentes de IA sejam autônomos em seus processos de tomada de decisão, eles exigem metas e regras predefinidas definidas por humanos.2 Há três principais influências no comportamento de um agente autônomo :

  • A equipe de desenvolvedores que projeta e treina o sistema de IA agêntica
  • A equipe que implementa o agente e fornece ao usuário acesso a ele.
  • O usuário que fornece ao agente de IA objetivos específicos a serem alcançados e estabelece as ferramentas disponíveis a serem utilizadas.

Com base nos objetivos do usuário e nas ferramentas disponíveis, o agente de IA executa a decomposição da tarefa para melhorar o desempenho.3 Essencialmente, o agente cria um plano de tarefas e subtarefas específicas para atingir o objetivo complexo.

No caso de tarefas simples, o planejamento não é uma etapa necessária. Em vez disso, o agente pode refletir iterativamente sobre as respostas e melhorá-las sem planejar os próximos passos.

Raciocínio com ferramentas disponíveis

Os agentes de IA baseiam suas ações nas informações que percebem. No entanto, eles frequentemente carecem do conhecimento completo necessário para lidar com cada subtarefa dentro de um objetivo complexo. Para superar essa lacuna, eles recorrem a ferramentas disponíveis, como conjuntos de dados externos, pesquisas na web, APIs e até mesmo outros agentes.

Depois que as informações ausentes são coletadas, o agente atualiza sua base de conhecimento e se envolve no raciocínio agêntico. Esse processo envolve a reavaliação contínua de seu plano de ação e a realização de autocorreções, o que permite uma tomada de decisão mais informada e adaptável.

Para ajudar a ilustrar esse processo, imagine um usuário planejando as férias. O usuário encarrega um agente de IA de prever qual semana do próximo ano provavelmente terá o melhor clima para sua viagem de surfe na Grécia. 

Como o modelo LLM no núcleo do agente não é especializado em padrões climáticos, ele não pode confiar apenas em seu conhecimento interno. Por isso, o agente reúne informações de um banco de dados externo que contém relatórios meteorológicos diários da Grécia dos últimos anos.

Apesar de adquirir essas novas informações, o agente ainda não consegue determinar as condições climáticas ideais para surfar e, portanto, a próxima subtarefa é criada. Para essa subtarefa, o agente se comunica com um agente externo especializado na prática de surfe. Digamos que, ao fazer isso, o agente aprenda que as marés altas e o tempo ensolarado com pouca ou nenhuma chuva proporcionam as melhores condições para a prática de surfe.

Com isso, o agente pode combinar as informações que aprendeu com suas ferramentas para identificar padrões. Ele pode prever qual semana do próximo ano na Grécia provavelmente terá marés altas, tempo ensolarado e pouca chance de chuva. Essas descobertas são, então, apresentadas ao usuário. Esse compartilhamento de informações entre as ferramentas é o que permite que os agentes de IA sejam mais generalistas do que os modelos tradicionais de IA.3

Aprendizado e reflexão

Os agentes de IA utilizam mecanismos de feedback, como outros agentes de IA e o human-in-the-loop (HITL), para melhorar a precisão de suas respostas. Voltemos ao nosso exemplo anterior de surfe para ressaltar esse processo. Depois que o agente forma sua resposta ao usuário, ele armazena as informações aprendidas junto com o feedback do usuário para melhorar o desempenho e se ajustar às preferências do usuário para objetivos futuros.

Se outros agentes forem usados para alcançar o objetivo, o feedback deles pode também ser usado. O feedback de vários agentes pode ser especialmente útil para minimizar o tempo que os usuários humanos gastam fornecendo orientações. No entanto, os usuários também podem fornecer feedback em relação às ações e ao raciocínio interno do agente para alinhar melhor os resultados com o objetivo pretendido.2

Os mecanismos de feedback melhoram o raciocínio e a precisão do agente de IA, o que é comumente conhecido como refinamento iterativo.3 Para evitar repetir os mesmos erros, os agentes de IA também podem armazenar dados sobre as soluções aos obstáculos anteriores em uma base de conhecimento.

As mais recentes tendências em IA, trazidas a você por especialistas

Receba insights selecionados sobre as notícias mais importantes (e intrigantes) sobre IA. Inscreva-se no nosso boletim informativo semanal Think. Consulte a Declaração de privacidade da IBM.

Agradecemos a você! Você se inscreveu.

Sua assinatura será entregue em inglês. Você encontrará um link para cancelar a assinatura em cada boletim informativo. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.

Chatbots IA agênticos versus não agênticos

Os chatbots de IA utilizam técnicas de IA conversacional, como processamento de linguagem natural (NLP), para entender as perguntas dos usuários e automatizar as respostas. Esses chatbots são uma modalidade, enquanto a agência é um framework tecnológico.

Os chatbots IA não agênticos são aqueles que não têm ferramentas, memória ou raciocínio disponíveis. Elas só conseguem atingir metas de curto prazo e não conseguem planejar adiante. Como os conhecemos, os chatbots não agênticos precisam de entradas contínuas do usuário para responder.

Eles podem produzir respostas a prompts comuns que provavelmente se alinham às expectativas do usuário, mas têm um desempenho ruim em perguntas exclusivas do usuário e de seus dados. Como esses chatbots não têm memória, eles não aprendem com os erros se suas respostas forem insatisfatórias.

Em contrapartida, os chatbots IA agênticos aprendem a se adaptar às expectativas do usuário ao longo do tempo, proporcionando uma experiência mais personalizada e respostas mais abrangentes. Eles podem concluir tarefas complexas criando subtarefas sem intervenção humana e considerando planos diferentes. Esses planos também podem ser corrigidos e atualizados automaticamente conforme a necessidade. Os chatbots IA agênticos, diferentemente dos não agênticos, avaliam suas ferramentas e usam os recursos disponíveis para completar lacunas de informações.

AI Academy

Torne-se um especialista em IA

Adquira conhecimento para priorizar os investimentos em IA que estimulam o crescimento dos negócios. Comece a usar hoje mesmo a nossa AI Academy sem custo e lidere o futuro da IA na sua organização.

Paradigmas de raciocínio

Não há uma arquitetura padrão para a criação de agentes de IA. Existem vários paradigmas para resolver problemas de várias etapas.

ReAct (raciocínio e ação)

Com o paradigma ReAct, podemos instruir os agentes a "pensar" e planejar após cada ação executada e com cada resposta da ferramenta para decidir qual ferramenta usar em seguida. Esses ciclos do tipo pensar-agir-observar são usados para resolver problemas passo a passo e melhorar iterativamente as respostas.

Por meio da estrutura de prompts, os agentes podem ser instruídos a raciocinar lentamente e exibir cada “pensamento”.4 O raciocínio verbal do agente fornece um insight sobre como as respostas são formuladas. Nesse framework, os agentes atualizam continuamente seu contexto com novos raciocínios. Essa abordagem pode ser interpretada como uma forma de prompt da cadeia de pensamento.

ReWOO (raciocínio sem observação)

O método ReWOO, diferentemente do ReAct, elimina a dependência das saídas das ferramentas para o planejamento de ações. Em vez disso, os agentes planejam com antecedência. O uso redundante de ferramentas é evitado ao antecipar quais ferramentas usar ao receber o primeiro prompt do usuário. Este método é desejável de uma perspectiva centrada no ser humano porque o usuário pode confirmar o plano antes que ele seja executado.

O fluxo de trabalho do ReWOO é composto por três módulos. No módulo de planejamento, o agente antecipa suas próximas etapas com base em um prompt do usuário. A próxima etapa envolve a coleta das saídas produzidas ao solicitar essas ferramentas. Por último, o agente combina o plano inicial com os resultados das ferramentas para formular uma resposta. Esse planejamento antecipado pode reduzir muito o uso de tokens, a complexidade computacional e as repercussões da falha de ferramentas intermediárias.5

Tipos de agentes de IA

Os agentes de IA podem ser desenvolvidos para ter níveis variáveis de recursos. Um agente simples pode ser preferido para objetivos diretos a fim de limitar a complexidade computacional desnecessária. Da ordem do mais simples ao mais avançado, existem cinco tipos principais de agentes:

1. Agentes de reflexo simples

Agentes de reflexos simples são a forma de agente mais simples que fundamenta ações na percepção. Esse agente não contém memória nem interage com outros agentes se estiverem faltando informações. Esses agentes funcionam com base em um conjunto dos chamados reflexos ou regras. Esse comportamento significa que o agente é pré-programado para executar ações que correspondem ao cumprimento de determinadas condições.

Se o agente se deparar com uma situação para a qual não está preparado, ele não conseguirá responder da maneira adequada. Os agentes são eficazes em ambientes totalmente observáveis e concedem acesso a todas as informações necessárias.6

Exemplo: se forem 20h, o aquecimento estará ativado. Por exemplo, um termostato que liga o sistema de aquecimento em um horário definido todas as noites.

Ilustração de diagrama de agente de reflexo simples Diagrama de agente de reflexo simples

2. Agentes de reflexo baseados em modelos

Agentes de reflexos baseados em modelos usam tanto a percepção quanto a memória atuais para manter um modelo interno do mundo. Conforme o agente continua a receber novas informações, o modelo é atualizado. As ações do agente dependem de seu modelo, reflexos, preceitos anteriores e estado atual.

Esses agentes, diferentemente dos agentes de reflexo simples, podem armazenar informações na memória e operar em ambientes que são parcialmente observáveis e mutáveis. Entretanto, eles ainda são limitadas pelo seu conjunto de regras.6

Exemplo: um robô aspirador de pó. Ao limpar um quarto sujo, ele detecta obstáculos, como móveis, e se ajusta em torno deles. O robô também armazena um modelo das áreas que já limpou para não ficar preso em um ciclo de limpeza repetida.

Ilustração do diagrama do agente de reflexo baseado em modelos Diagrama de agente reflexo baseado em modelo

3. Agentes baseados em objetivos

Os agentes baseados em objetivos possuem um modelo interno do mundo e também um objetivo ou conjunto de objetivos. Esses agentes procuram sequências de ação que atinjam seu objetivo e planejam essas ações antes de agir. Essa busca e planejamento melhoram sua eficácia quando comparados com agentes de reflexo simples e baseados em modelos.7

Exemplo: um sistema de navegação que recomenda a rota mais rápida até seu destino. O modelo considera várias rotas que chegam ao destino, ou seja, seu objetivo. Nesse exemplo, a regra de condição-ação do agente afirma que, se uma rota mais rápida for encontrada, o agente a recomendará.

Ilustração de diagrama de agente baseado em objetivos Diagrama de agente baseado em objetivos

4. Agentes baseados em utilidade

Agentes baseados em utilidade selecionam a sequência de ações que atingem o objetivo e também maximizam a utilidade ou a recompensa. A utilidade é calculada por meio de uma função de utilidade. Essa função atribui um valor de utilidade, uma métrica que mede a utilidade de uma ação ou o quão “feliz” ela deixará o agente, a cada cenário com base em um conjunto de critérios fixos.

Os critérios podem incluir fatores como progressão em direção ao objetivo, requisitos de tempo ou complexidade computacional. Em seguida, o agente seleciona as ações que maximizam a utilidade esperada. Portanto, esses agentes são úteis nos casos em que vários cenários atingem um objetivo desejado, e um cenário ideal deve ser selecionado.7

Exemplo: um sistema de navegação que recomenda a rota até o destino que otimiza a eficiência do combustível e minimiza o tempo gasto no trânsito e o custo dos pedágios. Esse agente mede a utilidade por meio desse conjunto de critérios para selecionar a rota mais favorável.

Ilustração de diagrama de agente baseado em utilidade Diagrama de agente baseado em utilidade

5. Agentes de aprendizagem

Os agentes de aprendizado têm os mesmos recursos que os outros tipos de agentes, mas são únicos em sua capacidade de aprender. Novas experiências são adicionadas à base de conhecimento inicial, o que ocorre de forma autônoma. Esse aprendizado aprimora a capacidade do agente de operar em ambientes desconhecidos. Os agentes de aprendizado podem ser baseados em utilidade ou objetivos em seu raciocínio e são compostos por quatro elementos principais:7

  • Aprendizado: esse processo aprimora o conhecimento do agente ao aprender com o ambiente por meio de seus preceitos e sensores.
  • Crítico: esse componente fornece feedback ao agente sobre se a qualidade de suas respostas atende ao padrão de desempenho.
  • Desempenho: esse elemento é responsável por selecionar as ações após o aprendizado.
  • Gerador de problemas: esse módulo cria várias propostas de ações a serem adotadas.

Exemplo: recomendações personalizadas em sites de comércio eletrônico. Esses agentes monitoram as atividades e as preferências do usuário na memória. Essas informações são usadas para recomendar determinados produtos e serviços ao usuário. O ciclo se repete sempre que novas recomendações são feitas. A atividade do usuário é armazenada continuamente para fins de aprendizado. Ao fazer isso, o agente vai melhorando a sua precisão ao longo do tempo.

Diagrama de agente de aprendizagem Diagrama de agente de aprendizagem

Casos de uso de agentes de IA

Experiência do cliente

Os agentes de IA podem ser integrados a sites e aplicativos para aprimorar a experiência do cliente , atuando como assistentes virtuais, oferecendo apoio à saúde mental, simulando entrevistas e outras tarefas relacionadas.Existem muitos modelos no-code para implementação do usuário, o que torna o processo de criação desses agentes de IA ainda mais fácil.

Setor de saúde

Os agentes de IA podem ser usados para várias aplicações médicas no mundo real. Os sistemas multiagentes podem ser úteis para a resolução de problemas nesses ambientes. Do planejamento do tratamento para pacientes no departamento de emergência ao gerenciamento de processos de medicamentos, esses sistemas economizam tempo e esforço dos profissionais médicos para tarefas mais urgentes.9

Resposta a emergências

Se houver um desastre natural, os agentes de IA podem usar algoritmos de deep learning para recuperar as informações dos usuários das redes sociais que precisam de ajuda. A localização desses usuários pode ser mapeada, para que os serviços de resgate possam salvar mais pessoas em menos tempo. Portanto, os agentes de IA podem trazer um grande benefício à vida humana tanto em tarefas rotineiras e repetitivas quanto em situações de salvamento de vidas.10

Finanças e cadeia de suprimentos

Os agentes podem ser projetados para analisar dados financeiros em tempo real, prever tendências futuras de mercado e otimizar o gerenciamento da cadeia de suprimentos. A personalização dos agentes de IA autônomos nos fornece saídas personalizadas para nossos dados únicos. Ao trabalhar com dados financeiros, é importante aplicar medidas de segurança para a privacidade de dados.

Benefícios dos agentes de IA

Automação de tarefas

Com os avanços contínuos em IA generativa e aprendizado de máquina, há um interesse crescente na otimização dos fluxos de trabalho por meio de IA, ou automação inteligente. Agentes de IA são ferramentas de IA capazes de automatizar tarefas complexas que, de outra forma, exigiriam recursos humanos. Essa mudança se traduz em objetivos que podem ser alcançados de forma barata, rápida e em escala. Por sua vez, esses avanços significam que os agentes humanos não precisam fornecer instruções ao assistente de IA para criar e se orientar nas tarefas.

Melhor desempenho

Os frameworks multiagentes tendem a superar o desempenho dos agentes únicos.11 Isso ocorre porque, quanto mais planos de ação estão disponíveis para um agente, mais aprendizado e reflexão ocorrem.

Um agente de IA que incorpora conhecimento e feedback de outros agentes de IA especializados em áreas relacionadas pode ser útil para a síntese de informações. Essa colaboração de back-end de agentes de IA e a capacidade de preencher lacunas de informações são exclusivas dos frameworks agênticos, tornando-as uma ferramenta eficiente e um avanço significativo na inteligência artificial.

Qualidade das respostas

Os agentes de IA fornecem respostas mais abrangentes, precisas e personalizadas ao usuário do que os modelos de IA tradicionais. Essa adaptabilidade é importante para nós como usuários, pois respostas de melhor qualidade geralmente resultam em uma melhor experiência do cliente. Conforme descrito anteriormente, esse recurso é possível por meio da troca de informações com outros agentes, de ferramentas e da atualização do fluxo de memória. Esses comportamentos surgem por conta própria e não são pré-programados.12

Riscos e limitações

Dependências multiagentes

Certas tarefas complexas exigem o conhecimento de vários agentes de IA. A orquestração desses frameworks multiagentes apresenta risco de mau funcionamento. Sistemas multiagentes construídos sobre os mesmos modelos de base podem experimentar armadilhas compartilhadas. Essas fraquezas podem causar uma falha em todo o sistema de todos os agentes envolvidos ou expor vulnerabilidades a ataques adversos.13 Isso destaca a importância da gestão de dados na criação de modelos de base e processos completos de treinamento e testes.

Ciclos infinitos de feedback

A conveniência do raciocínio prático para usuários humanos, possibilitada por agentes de IA, também traz seus riscos. Os agentes que não conseguem criar um plano abrangente nem refletir sobre suas descobertas podem acabar chamando repetidamente as mesmas ferramentas, causando ciclos de feedback infinitos. Para evitar essas redundâncias, pode ser usado algum grau de monitoramento humano em tempo real.13

Complexidade computacional

A criação de agentes de IA a partir do zero é um processo demorado e também pode ser bastante caro em termos de computação. Os recursos necessários para treinar um agente de alto desempenho podem ser elevados. Além disso, dependendo da complexidade da tarefa, os agentes podem levar vários dias para concluir as tarefas.12

Privacidade de dados

Se mal gerenciada, a integração dos agentes de IA com os processos de negócios e os sistemas de gerenciamento de clientes pode levantar sérias preocupações de segurança. Por exemplo, imagine agentes de IA liderando o processo de desenvolvimento de software, levando os copilotos de programação a um novo patamar ou determinando preços para clientes, sem qualquer supervisão ou proteção humana. Os resultados de tais cenários podem ser prejudiciais devido ao comportamento experimental e, muitas vezes, imprevisível da IA agêntica.

Portanto, é essencial que fornecedores de IA, como a IBM, Microsoft e OpenAI, permaneçam proativos. Eles devem implementar protocolos de segurança abrangentes para garantir que os dados confidenciais de funcionários e clientes sejam armazenados com segurança. Práticas de implementação responsáveis são fundamentais para minimizar os riscos e manter a confiança nessas tecnologias em rápida evolução.

Melhores práticas

Logs de atividades

Para lidar com as preocupações com as dependências multiagentes, os desenvolvedores podem fornecer aos usuários acesso a um log de ações dos agentes.14 As ações podem incluir o uso de ferramentas externas e descrever os agentes externos utilizados para atingir o objetivo. Essa transparência traz insights aos usuários sobre o processo de tomada de decisão iterativo, oferece a oportunidade de descobrir erros e gera confiança.

Interrupção

É recomendável evitar que agentes autônomos de IA operem por períodos excessivamente longos. Isso é válido particularmente em casos de ciclos de feedback infinitos não intencionais, alterações no acesso a determinadas ferramentas ou mau funcionamento devido a falhas de projeto. Uma maneira de atingir este objetivo é implementando a capacidade de interrupção.

Para manter o controle dessa decisão, é preciso permitir que os usuários humanos tenham a opção de interromper uma sequência de ações ou a operação inteira de maneira gentil. A decisão sobre se e quando interromper um agente de IA exige certo cuidado, pois algumas interrupções podem trazer mais danos do que benefícios. Por exemplo, pode ser mais seguro permitir que um agente defeituoso continue ajudando em uma emergência com risco à vida do que desligá-lo completamente.5

Identificadores exclusivos de agentes

Para mitigar o risco de sistemas agênticos serem usados para fins maliciosos, é possível implementar identificadores exclusivos. Quando esses identificadores forem necessários para os agentes acessarem sistemas externos, rastrear a origem dos desenvolvedores, implementadores e usuário do agente ficará mais fácil.

Essa abordagem adiciona uma camada essencial de responsabilidade. A rastreabilidade ajuda a identificar as partes responsáveis quando um agente causa uso malicioso ou danos não intencionais. Em última análise, esse tipo de proteção promoveria um ambiente operacional mais seguro para os agentes de IA.

Supervisão humana

Para ajudar no processo de aprendizado dos agentes de IA, principalmente nas primeiras etapas em um novo ambiente, pode ser útil fornecer algum nível de supervisão humana. Portanto, com essas orientações, o agente de IA pode comparar seu desempenho com o padrão esperado e fazer os ajustes necessários. Essa forma de feedback é útil para melhorar a adaptabilidade do agente às preferências do usuário.5

Além desta proteção, é uma melhor prática exigir a aprovação humana antes que um agente de IA adote ações altamente impactantes. Por exemplo, ações que vão desde o envio de e-mails em massa até a negociação financeira devem exigir confirmação humana.7 Nesses domínios de alto risco, certo nível de monitoramento humano é recomendado.

Soluções relacionadas
Agentes de IA para empresas

Crie, implemente e gerencie assistentes e agentes de IA potentes que automatizam fluxos de trabalho e processos com a IA generativa.

    Explore o watsonx Orchestrate
    Soluções de agentes de IA da IBM

    Construa o futuro do seu negócio com soluções de IA em que você pode confiar.

    Explore soluções de agentes de IA
    Serviços de IA do IBM® Consulting

    Os serviços de IA da IBM Consulting ajudam a reinventar a forma como as empresas trabalham com IA para gerar transformação.

    Explore os serviços de inteligência artificial
    Dê o próximo passo

    Se você optar por personalizar aplicativos e habilidades criados previamente ou criar e implementar serviços agênticos personalizados usando um estúdio de IA, a plataforma IBM watsonx tem aquilo de que você precisa.

    Explore o watsonx Orchestrate Explore o watsonx.ai
    Notas de rodapé

    1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu e Gao Huang, "Expel: LLM agents are experiential learners," Proceedings of the AAAI conference on artificial intelligence, Vol. 38, No. 17, pp. 19632-19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936\
    2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos e David G. Robinson, “Practices for governing agentic AI Systems,” OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3
    3 Tula Masterman, Sandi Besen, Mason Sawtell e Alex Chao, “The landscape of emerging AI agent architectures for reasoning, planning and tool calling: A Survey” arXiv preprint, 2024, https://arxiv.org/abs/2404.11584
    4 Gautier Dagan, Frank Keller e Alex Lascarides, "Dynamic planning with an LLM," arXiv preprint, 2023 https://arxiv.org/abs/2308.06391
    5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu e Dongkuan Xu, "ReWOO: Decoupling reasoning from observations for efficient augmented language models," arXiv preprint, 2023 https://arxiv.org/abs/2305.18323
    6 Sebastian Schmid, Daniel Schraudner e Andreas Harth, "Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation." IEEE International conference on autonomic computing and self-organizing systems companion, pp. 93–98, 2021, https://ieeexplore.ieee.org/document/9599196
    7 Veselka Sasheva Petrova-Dimitrova, “Classifications of intelligence agents and their applications,” Fundamental sciences and applications, Vol. 28, No. 1, 2022.
    8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei e Jirong Wen, “A survey on large language model based autonomous agents,” Frontiers of computer science, Vol. 18, No. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1
    9 Jaya R. Haleema, Haleema, N. C. S. N. Narayana, “Enhancing a traditional health care system of an organization for better service with agent technology by ensuring confidentiality of patients’ medical information,” Cybernetics and information technologies, Vol. 12, No. 3, pp.140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031
    10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi e Mamadou Seck, “Intelligent agent for hurricane emergency identification and text information extraction from streaming social media big data,” International journal of critical infrastructures, Vol. 19, No. 2, pp. 124–139, 2023, https://arxiv.org/abs/2106.07114
    11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu e Deheng Ye. "More agents is all you need." arXiv preprint, 2024, https://arxiv.org/abs/2402.05120
    12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang e Michael S. Bernstein, "Generative agents: Interactive simulacra of human behavior," Proceedings of the 36th annual ACM symposium on user interface software and technology, pp. 1–22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763
    13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim e Markus Anderljung, “Visibility into AI agents,” The 2024 ACM Conference on fairness, accountability and transparency, pp. 958–973, 2024, https://arxiv.org/abs/2401.13138
    14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca e Saravan Rajmohan, "Exploring LLM-based agents for root cause analysis," arXiv preprint, 2024, https://arxiv.org/abs/2403.04123