Un agent d’intelligence artificielle (IA) désigne un système ou un programme capable d’exécuter des tâches de manière autonome pour le compte d’un utilisateur ou d’un autre système, en concevant son workflow et en utilisant les outils disponibles.
Les agents d’IA peuvent offrir un large éventail de fonctionnalités au-delà du traitement automatique du langage naturel, comme la prise de décision, la résolution de problèmes, l’interaction avec des environnements externes et l’exécution d’actions.
Ces agents peuvent être déployés dans diverses applications pour résoudre des tâches complexes dans différents contextes d’entreprise, que ce soit pour la conception de logiciels, l’automatisation informatique, les outils de génération de code ou les assistants conversationnels. Ils utilisent les techniques avancées de traitement automatique du langage naturel des grands modèles de langage (LLM) pour comprendre et répondre aux entrées utilisateur, étape par étape, et déterminer quand utiliser des outils externes.
Les grands modèles linguistiques (LLM) sont au cœur des agents d’IA. C’est pourquoi ces agents sont souvent appelés agents LLM. Les LLM traditionnels, tels que les modèles IBM Granite, produisent des réponses basées sur les données utilisées pour leur entraînement, mais ils sont limités en termes de connaissances et de capacités de raisonnement. En revanche, la technologie agentique utilise l’appel d’outils en arrière-plan pour obtenir des informations actualisées, optimiser les workflows et créer des sous-tâches de manière autonome afin d’atteindre des objectifs complexes.
Dans ce processus, l’agent autonome apprend à s’adapter aux attentes de l’utilisateur au fil du temps. La capacité de l’agent à mémoriser les interactions passées et à planifier des actions futures favorise une expérience personnalisée et des réponses complètes.1 Cet appel d’outils peut se faire sans intervention humaine, élargissant ainsi les possibilités d’application réelle de ces systèmes d’IA. L’approche adoptée par les agents d’IA pour atteindre les objectifs fixés par les utilisateurs comprend les trois étapes suivantes :
Bien que les agents d’IA soient autonomes dans leurs processus de prise de décision, ils ont besoin d’objectifs et d’environnements définis par les humains.2 Le comportement des agents autonomes est influencé par trois facteurs principaux :
En fonction des objectifs de l’utilisateur et des outils disponibles, l’agent d’IA procède à la décomposition des tâches pour améliorer ses performances.3 Essentiellement, l’agent crée un plan de tâches et de sous-tâches spécifiques pour atteindre des objectifs complexes.
Pour les tâches simples, la planification n’est pas nécessaire ; l’agent peut plutôt itérativement améliorer ses réponses sans planifier ses prochaines étapes.
Les agents d’IA fondent leurs actions sur les informations qu’ils perçoivent. Souvent, ils ne disposent pas de la base de connaissances complète nécessaire pour s’attaquer à toutes les sous-tâches d’un objectif complexe. Pour remédier à cette situation, ils utilisent les outils dont ils disposent. Ces outils peuvent inclure des ensembles de données externes, des recherches sur le Web, des API, et même d’autres agents. Après avoir récupéré les informations manquantes via ces outils, l’agent peut mettre à jour sa base de connaissances. Cela signifie qu’à chaque étape, l’agent réévalue son plan d’action et s’autocorrige.
Pour illustrer ce processus, imaginons un utilisateur qui planifie ses vacances. L’utilisateur demande à un agent d’IA de prédire quelle semaine de l’année prochaine aura probablement les meilleures conditions météorologiques pour son voyage de surf en Grèce. Comme le modèle LLM au cœur de l’agent n’est pas spécialisé dans les modèles météorologiques, l’agent recueille des informations auprès d’une base de données externe composée de rapports météorologiques quotidiens pour la Grèce au cours des dernières années.
Même après l’acquisition de ces nouvelles informations, l’agent n’est toujours pas capable de déterminer les conditions météorologiques optimales pour le surf. Par conséquent, une nouvelle sous-tâche est créée. Pour cette sous-tâche, l’agent communique avec un agent externe spécialisé dans le surf. En procédant ainsi, il apprend que les marées hautes et le temps ensoleillé avec peu ou pas de pluie sont les conditions idéales pour le surf.
L’agent peut alors combiner les informations apprises grâce à ses outils pour identifier des modèles et prédire quelle semaine de l’année prochaine, en Grèce, les marées seront hautes, le temps ensoleillé et le risque de pluie faible. Ces résultats sont ensuite présentés à l’utilisateur. Ce partage d’informations entre outils est ce qui permet aux agents d’IA d’être plus polyvalents que les modèles d’IA traditionnels.3
Les agents d’IA utilisent des mécanismes de retour d’information, tels que d’autres agents d’IA ou l’interaction humaine suivant le principe du human-in-the-loop (HITL), pour améliorer la précision de leurs réponses. Reprenons l’exemple de surf. Après avoir formulé sa réponse à l’utilisateur, l’agent stocke les informations apprises ainsi que les retours de l’utilisateur pour améliorer ses performances et s’adapter aux préférences de ce dernier lors de futurs objectifs.
Si d’autres agents ont été utilisés pour atteindre l’objectif, leurs retours peuvent également être intégrés. Le retour d’information de plusieurs agents peut être particulièrement utile pour minimiser le temps que les utilisateurs humains consacrent à donner des instructions. Cependant, les utilisateurs peuvent également fournir des retours tout au long des actions et du raisonnement interne de l’agent pour mieux aligner les résultats sur l’objectif fixé.2
Les mécanismes de retour d’information améliorent le raisonnement et la précision des agents d’IA. Ce processus est communément appelé raffinement itératif.3 Pour éviter de répéter les mêmes erreurs, les agents d’IA peuvent également stocker des données sur les solutions trouvées face à des obstacles précédents dans une base de connaissances.
Newsletter sectorielle
Obtenez des informations sur les actualités les plus importantes et les plus intrigantes en matière d’intelligence artificielle. Abonnez-vous à notre newsletter hebdomadaire Think. Lire la Déclaration de confidentialité d’IBM.
Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.
Les chatbots d’IA utilisent des techniques d’IA conversationnelle telles que le traitement automatique du langage naturel (NLP) pour comprendre les questions des utilisateurs et automatiser les réponses. Ces chatbots sont une modalité, tandis que l’agentivité est un cadre technologique.
Les chatbots d’IA non agentiques sont ceux qui ne disposent ni d’outils, ni de mémoire, ni de capacités de raisonnement. Ils ne peuvent atteindre que des objectifs à court terme et ne sont pas capables de planifier à l’avance. Tels que nous les connaissons, les chatbots non agentiques nécessitent une intervention continue de l’utilisateur pour répondre. Ils peuvent produire des réponses à des questions courantes qui sont susceptibles de correspondre aux attentes de l’utilisateur, mais leurs performances sont insuffisantes face à des questions spécifiques à l’utilisateur ou à ses données. Étant donné que ces chatbots n’ont pas de mémoire, ils ne peuvent pas apprendre de leurs erreurs si leurs réponses ne sont pas satisfaisantes.
En revanche, les chatbots d’IA agentiques apprennent à s’adapter aux attentes des utilisateurs au fil du temps, offrant ainsi une expérience plus personnalisée et des réponses plus complètes. Ils peuvent accomplir des tâches complexes en créant des sous-tâches sans intervention humaine et en élaborant différents plans. Ces plans peuvent également être autocorrigés et mis à jour si nécessaire. Contrairement aux chatbots non agentiques, les chatbots d’IA agentiques évaluent leurs outils et utilisent les ressources disponibles pour combler les lacunes en matière d’information.
Il n’existe pas d’architecture standard de création d’agents d’IA. Différents paradigmes existent pour résoudre des problèmes à plusieurs étapes.
Avec ce paradigme, les agents sont instruits pour « réfléchir » et planifier après chaque action réalisée et chaque réponse obtenue d’un outil afin de décider quel outil utiliser ensuite. Ces boucles de réflexion, d’action et d’observation sont utilisées pour résoudre des problèmes étape par étape et améliorer les réponses de manière itérative.
Grâce à la structure des invites, les agents peuvent être instruits pour raisonner lentement et exposer chaque « pensée ».4 Le raisonnement verbal de l’agent permet de comprendre comment les réponses sont formulées. Dans ce cadre, les agents actualisent en permanence leur contexte en intégrant de nouveaux raisonnements, ce qui peut être interprété comme une forme d’incitation par chaîne de pensée (CoT).
La méthode ReWOO, contrairement à ReAct, supprime la dépendance aux résultats des outils pour la planification des actions. Les agents planifient en amont, évitant ainsi une utilisation redondante des outils en anticipant ceux qu’il faudra utiliser dès la réception de l’invite initiale de l’utilisateur. Cela est souhaitable du point de vue de l’utilisateur, car celui-ci peut confirmer le plan avant qu’il ne soit exécuté.
Le workflow de ReWOO se compose de trois modules : dans le module de planification, l’agent anticipe ses prochaines étapes à partir de l’invite de l’utilisateur. L’étape suivante consiste à collecter les résultats des outils. Enfin, l’agent associe le plan initial aux résultats des outils pour formuler une réponse. Cette planification anticipée peut réduire considérablement l’utilisation des jetons et la complexité informatique, tout en minimisant les impacts d’une éventuelle défaillance intermédiaire des outils.5
Les agents d’intelligence artificielle peuvent être développés avec différents niveaux de capacités. Un agent simple peut être utilisé pour des objectifs simples afin de limiter toute complexité informatique inutile. Dans l’ordre du plus simple au plus avancé, il existe cinq principaux types d’agents :
Les agents réflexes simples sont la forme d’agent la plus basique qui fonde ses actions sur la perception actuelle. Ces agents ne bénéficient ni d’une mémoire ni d’une interaction avec d’autres agents lorsqu’il leur manque des informations. Ils fonctionnent sur la base de règles ou de réflexes préprogrammés. Cela signifie que l’agent exécute des actions en fonction de certaines conditions définies à l’avance.
Si l’agent rencontre une situation pour laquelle il n’est pas programmé, il ne peut pas réagir de manière appropriée. Ces agents ne sont efficaces que dans des environnements entièrement observables, où toutes les informations nécessaires sont disponibles.6
Exemple : un thermostat qui active le chauffage à une heure précise chaque soir. La règle condition-action est : s’il est 20 heures, alors le chauffage est activé.
Les agents réflexes basés sur un modèle utilisent à la fois leur perception actuelle et leur mémoire pour maintenir un modèle interne du monde. À mesure que l’agent reçoit de nouvelles informations, ce modèle est mis à jour. Les actions de l’agent dépendent de ce modèle, de ses réflexes, de ses perceptions antérieures et de son état actuel.
Contrairement aux agents réflexes simples, ces agents peuvent stocker des informations en mémoire et opérer dans des environnements partiellement observables et dynamiques. Cependant, ils restent limités par leur ensemble de règles.6
Exemple : un aspirateur robot. Lorsqu’il nettoie une pièce, il détecte les obstacles comme les meubles et s’ajuste en conséquence. Le robot stocke également un modèle des zones déjà nettoyées pour éviter de repasser aux mêmes endroits.
Les agents basés sur des objectifs possèdent un modèle interne du monde ainsi qu’un ou plusieurs objectifs. Ces agents recherchent des séquences d’actions pour atteindre leurs objectifs et planifient ces actions avant de les exécuter. Cette recherche et cette planification améliorent leur efficacité par rapport aux agents réflexes simples et aux agents basés sur un modèle.7
Exemple : un système de navigation qui recommande l’itinéraire le plus rapide pour atteindre votre destination. Le modèle prend en compte différents itinéraires permettant d’atteindre votre destination, ou en d’autres termes, votre objectif. Dans cet exemple, la règle condition-action de l’agent stipule que si un itinéraire plus rapide est trouvé, l’agent le recommande à la place.
Les agents basés sur l’utilité sélectionnent la séquence d’actions qui permet d’atteindre l’objectif tout en maximisant l’utilité ou la récompense. L’utilité est calculée à l’aide d’une fonction d’utilité. Cette fonction attribue une valeur d’utilité, un indicateur mesurant l’utilité d’une action ou le degré de satisfaction de l’agent, à chaque scénario en fonction d’un ensemble de critères fixes.
Les critères peuvent inclure des facteurs tels que la progression vers l’objectif, le temps requis ou la complexité informatique. L’agent sélectionne ensuite les actions qui maximisent l’utilité attendue. Ces agents sont donc utiles dans les cas où plusieurs scénarios permettent d’atteindre un objectif souhaité et où il faut en sélectionner un optimal.7
Exemple : un système de navigation qui recommande l’itinéraire vers votre destination en optimisant l’efficacité énergétique et en minimisant le temps passé dans les embouteillages et le coût des péages. Cet agent mesure l’utilité à travers cet ensemble de critères pour sélectionner l’itinéraire le plus favorable.
Les agents apprenants possèdent les mêmes capacités que les autres types d’agents, mais leur particularité réside dans leur capacité d’apprentissage. De nouvelles expériences sont ajoutées à leur base de connaissances initiale de manière autonome. Cet apprentissage améliore la capacité de l’agent à opérer dans des environnements peu familiers. Le raisonnement des agents apprenants peut être basé sur l’utilité ou sur un objectif, et ils se composent de quatre éléments principaux :7
Exemple : recommandations personnalisées sur les sites de commerce électronique. Ces agents enregistrent l’activité et les préférences de l’utilisateur dans leur mémoire. Ces informations sont utilisées pour recommander certains produits et services à l’utilisateur. Le cycle se répète à chaque fois que de nouvelles recommandations sont faites. L’activité de l’utilisateur est continuellement stockée pour améliorer l’apprentissage, ce qui permet à l’agent d’affiner ses recommandations au fil du temps.
Les agents d’IA peuvent être intégrés dans des sites Web et des applications pour améliorer l’expérience client, en servant d’assistants virtuels, en fournissant un soutien en matière de santé mentale, en simulant des entretiens, et pour d’autres tâches connexes.8 Il existe de nombreux modèles no-code permettant aux utilisateurs de créer facilement ces agents d’IA.
Les agents d’intelligence artificielle peuvent également être utilisés dans diverses applications dans le secteur de la santé. Les systèmes multi-agents peuvent être particulièrement utiles pour la résolution de problèmes dans ces environnements. Qu’il s’agisse de la planification des traitements des patients dans les services d’urgence ou de la gestion des processus médicamenteux, ces systèmes permettent aux professionnels de la santé de consacrer leur temps et leurs efforts à des tâches plus urgentes.9
En cas de catastrophe naturelle, les agents d’IA peuvent utiliser des algorithmes d’apprentissage profond pour récupérer sur les réseaux sociaux les informations des utilisateurs ayant besoin d’être secourus. La localisation de ces utilisateurs peut être cartographiée pour aider les services de secours à sauver davantage de personnes en moins de temps. Ainsi, les agents d’IA peuvent considérablement améliorer la vie humaine, tant dans les tâches quotidiennes que dans des situations de sauvetage.10
Avec les progrès continus de l’IA générative, l’optimisation des workflows grâce à l’IA, ou l’automatisation intelligente, suscite un intérêt croissant. Les agents d’IA sont des outils capables d’automatiser des tâches complexes qui nécessiteraient autrement des ressources humaines. Cela permet d’atteindre des objectifs à moindre coût, rapidement et à grande échelle. Grâce à ces avancées, les agents humains n’ont plus besoin de fournir des instructions à l’assistant d’IA pour qu’il crée et gère ses tâches.
Les cadres multi-agents ont tendance à surpasser les agents uniques.11 En effet, plus un agent dispose de plans d’action, plus il peut apprendre et réfléchir. Un agent d’IA qui intègre les connaissances et les retours d’autres agents d’IA spécialisés dans des domaines connexes peut être utile pour la synthèse d’informations. Cette collaboration en arrière-plan entre agents d’IA, ainsi que leur capacité à combler les lacunes en matière d’information, est propre aux cadres agentiques, en faisant un outil puissant et une avancée majeure dans l’intelligence artificielle.
Les agents d’IA fournissent des réponses plus complètes, précises et personnalisées que les modèles d’IA traditionnels. C’est un élément essentiel pour nous, en tant qu’utilisateurs, car des réponses de meilleure qualité améliorent généralement l’expérience client. Comme décrit précédemment, cela est possible grâce à l’échange d’informations avec d’autres agents, à l’utilisation d’outils externes et à la mise à jour de leur flux de mémoire. Ces comportements émergent d’eux-mêmes et ne sont pas préprogrammés.12
Certaines tâches complexes nécessitent les connaissances de plusieurs agents d’IA. Lors de la mise en œuvre de ces cadres multi-agents, il existe un risque de dysfonctionnement. Les systèmes multi-agents construits sur les mêmes modèles de fondation peuvent rencontrer des écueils communs. Ces faiblesses pourraient entraîner une défaillance de l’ensemble du système pour tous les agents concernés ou exposer des vulnérabilités face à des attaques adverses.13 Cela souligne l’importance d’une bonne gouvernance des données dans la conception des modèles de fondation ainsi que des processus rigoureux de formation et de test.
La commodité du raisonnement autonome pour les utilisateurs humains utilisant des agents d’IA s’accompagne également de risques. Les agents qui ne parviennent pas à établir un plan complet ou à analyser leurs résultats peuvent se retrouver à utiliser les mêmes outils à plusieurs reprises, entraînant des boucles de rétroaction infinies. Pour éviter ces redondances, un certain niveau de surveillance humaine en temps réel peut être requis.13
Créer des agents d’IA à partir de zéro prend du temps et peut également être très coûteux en termes de ressources informatiques. Les ressources nécessaires à la formation d’un agent performant peuvent être considérables. De plus, en fonction de la complexité de la tâche, les agents peuvent mettre plusieurs jours à la terminer.12
Pour répondre aux préoccupations liées aux dépendances multi-agents, les développeurs peuvent donner aux utilisateurs un accès à un journal des actions de l’agent.14 Ces actions peuvent inclure l’utilisation d’outils externes et décrire les agents externes utilisés pour atteindre l’objectif. Cette transparence permet aux utilisateurs de mieux comprendre le processus de prise de décision itératif, de détecter d’éventuelles erreurs et d’instaurer un climat de confiance.
Il est recommandé d’empêcher les agents d’IA de fonctionner pendant des périodes trop longues. Cela est particulièrement important dans les cas de boucles de rétroaction infinies involontaires, de changements d’accès à certains outils ou de dysfonctionnements liés à des défauts de conception. L’une des solutions consiste à mettre en œuvre la capacité d’interruption.
Pour garder le contrôle, il faut permettre aux utilisateurs humains d’interrompre une séquence d’actions ou l’opération entière de manière contrôlée. Le choix de savoir si et quand interrompre un agent d’IA nécessite réflexion, car certaines interruptions peuvent causer plus de tort que de bien. Par exemple, il peut être plus sûr de laisser un agent défectueux continuer à fonctionner en cas d’urgence vitale plutôt que de l’arrêter complètement.5
Pour réduire le risque d’utilisation malveillante des systèmes d’agents, des identifiants uniques peuvent être utilisés.14 Si ces identifiants étaient requis pour l’accès des agents à des systèmes externes, il serait plus facile de retracer l’origine des développeurs, des déployeurs et des utilisateurs de l’agent. Cela serait particulièrement utile en cas d’utilisation malveillante ou de dommages involontaires causés par l’agent. Ce niveau de responsabilité permettrait de créer un environnement plus sûr pour le fonctionnement de ces agents d’IA.
Pour faciliter le processus d’apprentissage des agents d’IA, notamment dans leurs premières phases d’intégration dans un nouvel environnement, il peut être utile de fournir un retour d’information humain de manière occasionnelle. Cela permet à l’agent de comparer ses performances aux standards attendus et de s’ajuster en conséquence. Cette forme de feedback aide à améliorer l’adaptabilité de l’agent aux préférences des utilisateurs.5
Il est également préférable de demander une validation humaine avant qu’un agent d’IA ne prenne des actions à fort impact. Par exemple, l’envoi d’e-mails en masse ou le trading financier devraient nécessiter une confirmation humaine.7 Un certain niveau de surveillance humaine est recommandé dans ces domaines à haut risque.
Nous avons interrogé 2 000 entreprises à propos de leurs initiatives d’IA pour découvrir ce qui fonctionne, ce qui ne fonctionne pas et comment progresser.
IBM Granite est notre famille de modèles d’IA ouverts, performants et fiables, conçus pour les entreprises et optimisés pour dimensionner vos applications d’IA. Explorez les options de langage, de code, de séries temporelles et de garde-fous.
Accédez à notre catalogue complet de plus de 100 cours en ligne en souscrivant aujourd’hui un abonnement individuel ou multiutilisateur afin d’élargir vos compétences dans certains de nos produits à un prix avantageux.
Dirigé par des leaders d’opinion IBM, le programme a pour but d’aider les chefs d’entreprise à acquérir les connaissances nécessaires qui leur permettront d’orienter leurs investissements IA vers les opportunités les plus prometteuses.
1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu, and Gao Huang, « Expel: Llm agents are experiential learners, » Proceedings of the AAAI Conference on Artificial Intelligence, Vol.38, No. 17, pp.19632-19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936 (lien externe à ibm.com).
2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos et David G. Robinson, « Practices for Governing Agentic AI Systems », OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3 (lien externe à ibm.com).
3 Tula Masterman, Sandi Besen, Mason Sawtell, Alex Chao, « The Landscape of Emerging AI AgentArchitectures for Reasoning, Planning, and Tool Calling : A Survey », arXiv preprint, 2024, https://arxiv.org/abs/2404.11584 (lien externe à ibm.com).
4 Gautier Dagan, Frank Keller et Alex Lascarides, « Dynamic Planning with a LLM », arXiv preprint, 2023. https://arxiv.org/abs/2308.06391 (lien externe à ibm.com).
5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu et Dongkuan Xu, « ReWOO : Decoupling Reasoning from Observations for Efficient Augmented Language Models », arXiv preprint, 2023, https://arxiv.org/abs/2305.18323 (lien externe à ibm.com).
6 Sebastian Schmid, Daniel Schraudner et Andreas Harth, « Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation ». IEEE International Conference on Autonomic Computing and Self-Organizing Systems Companion, pages 93-98, 2021, https://ieeexplore.ieee.org/document/9599196 (lien externe à ibm.com).
7 Veselka Sasheva Petrova-Dimitrova, « Classifications of intelligence agents and their applications », Fundamental Sciences and Applications, vol. 28, no° 1, 2022.
8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei et Jirong Wen, « A survey on large language model based autonomous agents », Frontiers of Computer Science, vol. 18, n° 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1 (lien externe à ibm.com).
9 Jaya R. Haleema, Haleema, N. C. S. N. Narayana, « Enhancing a Traditional Health Care System of an Organization for Better Service with Agent Technology by Ensuring Confidentiality of Patients’ Medical Information », Cybernetics and Information Technologies, vol. 12, n° 3, pages 140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031.
10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi, Mamadou Seck, « Intelligent Agent for Hurricane Emergency Identification and Text Information Extraction from Streaming Social Media Big Data » International Journal of Critical Infrastructures, vol. 19, n° 2, pages 124-139, 2023, https://arxiv.org/abs/2106.07114.
11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu, and Deheng Ye. « More agents is all you need ». arXiv preprint, 2024, https://arxiv.org/abs/2402.05120.
12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang et Michael S. Bernstein, « Generative agents : Interactive simulacra of human behavior », Proceedings of the 36th Annual ACM Symposium on User Interface software and Technology, pages 1-22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763.
13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim et Markus Anderljung, « Visibility into AI Agents », The 2024 ACM Conference on Fairness, Accountability, and Transparency, pages 958-973, 2024, https://arxiv.org/abs/2401.13138.
14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca et Saravan Rajmohan, « Exploring LLM-based Agents for Root Cause Analysis », arXiv preprint, 2024, https://arxiv.org/abs/2403.04123.