Temps de lecture
Le paysage des médias technologiques regorgent d’articles annonçant 2025 comme l’année de l’agent IA. Les agents, nous dit-on, transformeront le travail, ce qui aura un impact sur chaque aspect de notre vie tant personnelle que professionnelle.
Nous étions à peine sortis de l’engouement pour les NFT et les cryptomonnaies qui a caractérisé le début des années 2020, et de la bulle des métavers qui a suivi, que les médias ont commencé à chanter les louanges de l’IA générative dans le sillage de publications telles que la famille de modèles GPT d’OpenAI, Claude d’Anthropic et Copilot de Microsoft.
Si le refrain n’a pas complètement changé, l’attention en 2025 s’est déplacée des grands modèles de langage (LLM) vers les avancées en matière d’agents d’intelligence artificielle (IA), pensés pour être autonomes, qui dessinent l’avenir du travail.
Malgré un regain d’intérêt momentané pour l’IA générative autour du R1 de Deepseek, qui promettait une performance nettement supérieure à celle de ChatGPT, le récit principal en matière d’innovation en 2025 concerne l’agent IA.
La couverture média met en avant les promesses d’innovation, d’automatisation et d’efficacité que les agents apporteront, mais quelle est la part de la conversation qui est gourmande en clics ?
Le monde des médias financés par la publicité prospère grâce aux clics, et il est raisonnable de s’attendre à des titres sensationnels et accrocheurs conçus pour attirer les vôtres. Mais que pouvons-nous vraiment attendre de l’IA agentique en 2025, et quel sera son impact sur notre vie ?
Pour faire la part des choses et avoir un aperçu plus raisonnable des agents IA et de leur rôle à l’avenir, nous nous sommes entretenus avec les experts IBM suivants :
Maryam Ashoori, Dr. : directrice de la gestion des produits, IBM watsonx.ai
Marina Danilevsky: Chercheuse en technologies linguistiques
Vyoma Gajjar : architecte de solutions techniques d’IA
Chris Hay : ingénieur émérite
Un agent IA est un programme logiciel capable d’agir de manière autonome pour comprendre, planifier et exécuter des tâches. Les agents IA sont alimentés par des LLM et peuvent s’interfacer avec des outils, d’autres modèles et d’autres aspects d’un système ou d’un réseau en fonction des besoins pour atteindre les objectifs de l’utilisateur.
Un agent est bien plus qu’un chatbot auquel on demande de suggérer une recette à partir des ingrédients disponibles dans le frigo, ou d’un e-mail d’expérience client automatique qui vous informe qu’un conseiller donnera suite à votre demande sous quelques jours.
Les agents IA diffèrent des assistants d’IA traditionnels qui ont besoin d’un prompt chaque fois qu’ils génèrent une réponse. En théorie, un utilisateur confie à un agent IA une tâche de haut niveau, et l’agent IA détermine comment l’accomplir.
Les offres actuelles n’en sont qu’à leurs débuts. « Ce que l’on appelle communément les "agents" sur le marché est l’ajout de capacités rudimentaires de planification et d’appel d’outils (parfois connu sous le nom d’appels de fonctions) aux LLM, explique Mme Ashoori. Ceux-ci permettent au LLM de décomposer les tâches complexes en étapes plus petites que le LLM peut effectuer. »
M. Hay est optimiste quant à l’arrivée d’agents plus robustes : « Vous n’auriez pas besoin de progresser dans les modèles actuels pour créer de futurs agents IA », ajoute-t-il.
Cela dit, quelles sont les attentes concernant les agents pour l’année à venir, et à quel point sont-elles réalistes ?
« Des agents plus nombreux et meilleurs » sont en route, prédit le Time.1 « Les "agents" autonomes et la rentabilité sont susceptibles de dominer l’agenda de l’intelligence artificielle », rapporte Reuters.2 « L’ère de l’IA agentique est arrivée », promet Forbes, en réponse à une affirmation de Jensen Huang de Nvidia.3
Les médias technologiques ne cessent d’assurer que nos vies sont à l’aube d’une transformation totale. Les agents autonomes sont prêts à rationaliser et à modifier nos tâches, à favoriser l’optimisation et à nous accompagner dans notre vie quotidienne, en gérant nos tâches quotidiennes en temps réel et en nous libérant pour des activités créatives et d’autres tâches à plus forte valeur.
« IBM et Morning Consult ont mené une enquête auprès de 1 000 développeurs qui développent des applications d’IA pour les entreprises, et 99 % d’entre eux ont déclaré qu’ils découvraient ou développaient des agents IA, explique Mme Ashoori. Donc oui, la réponse est que 2025 sera l’année de l’agent IA. » Cependant, cette déclaration n’est pas sans nuances.
Après avoir établi la conception actuelle du marché des agents en tant que LLM avec appel de fonctions, Mme Ashoori fait une distinction entre cette idée et des agents véritablement autonomes. « La véritable définition [d’un agent IA] est une entité intelligente dotée de capacités de raisonnement et de planification qui peut prendre des mesures de manière autonome. Ces capacités de raisonnement et de planification sont sujettes à discussion. Cela dépend de la manière dont vous les définissez. »
« Je pense que des agents IA vont dans cette direction, mais nous n’y sommes pas encore complètement, déclare M. Gajjar. À l’heure actuelle, nous n’en avons qu’un aperçu : les agents IA peuvent déjà analyser les données, prévoir les tendances et automatiser les workflows dans une certaine mesure. Mais créer des agents IA capables de gérer de manière autonome des prises de décision complexes ne se limitera pas à de meilleurs algorithmes. Nous aurons besoin de grandes avancées en matière de raisonnement contextuel et de tests pour détecter les cas extrêmes », ajoute-t-elle.
Mme Danilevsky n’est pas convaincue qu’il s’agisse d’une nouveauté. « J’ai encore du mal à croire que c’est si différent de l’orchestration, dit-elle. Vous avez renommé l’orchestration, mais maintenant on l’appelle des agents, parce que c’est le mot le plus cool. Mais l’orchestration est quelque chose que nous faisons en programmation depuis toujours ».
En ce qui concerne le fait que 2025 soit l’année de l’agent, Mme Danilevsky est sceptique. « Cela dépend de ce que vous dites être un agent, de ce que vous pensez qu’il va accomplir et de la valeur que vous pensez qu’il apportera, explique-t-elle. C’est une sacrée déclaration alors que nous n’avons même pas encore calculé le ROI (retour sur investissement) de la technologie LLM en général. »
Et ce n’est pas seulement le côté commercial qui l’amène à couvrir ses paris. « Il y a le battage médiatique qui consiste à imaginer si cette chose pourrait penser pour vous, prendre toutes ces décisions et prendre des mesures sur votre ordinateur. En réalité, c’est terrifiant. »
Mme Danilevsky considère la déconnexion comme un fait de mauvaise communication. « [Les agents] ont tendance à être très inefficaces, car les humains sont de très mauvais communicateurs. Nous n’arrivons toujours pas à faire en sorte que les agents de chat interprètent correctement ce que vous voulez tout le temps. »
Néanmoins, l’année à venir est très prometteuse en tant qu’ère d’expérimentation. « Je crois fermement que [2025 sera l’année de l’agent] », s’enthousiasme M. Hay.
Toutes les grandes entreprises technologiques et des centaines de startups expérimentent aujourd’hui les agents. Salesforce, par exemple, a lancé sa plateforme Agentforce, qui permet aux utilisateurs de créer des agents facilement intégrés à l’écosystème d’applications Salesforce.
« La vague approche et nous allons avoir beaucoup d’agents. C’est encore un écosystème très naissant, donc je pense que beaucoup de gens vont créer des agents, et ils auront beaucoup de plaisir. »
Ce récit part du principe que les agents actuels répondent à la définition théorique présentée dans l’introduction de cet article. Les agents de 2025 seront des programmes d’IA totalement autonomes capables de définir la portée d’un projet et de le mener à bien avec tous les outils nécessaires, sans l’aide de partenaires humains. Mais ce qui manque à ce récit, c’est de la nuance.
M. Hay pense que les bases de tels développements ont déjà été jetées. « L’avantage des agents, c’est qu’ils ont la capacité de planifier, souligne-t-il. Ils ont la capacité de raisonner, d’utiliser des outils et d’effectuer des tâches, et ils doivent le faire rapidement et à grande échelle. »
Il cite quatre développements qui, par rapport aux meilleurs modèles d’il y a 12 à 18 mois, signifient que les modèles du début 2025 peuvent alimenter les agents imaginés par les partisans de ce récit :
Des modèles plus petits, plus rapides et plus performants
Formation de la Chaîne de pensée (COT)
Fenêtres contextuelles améliorées
Appel d’outil
« Maintenant, la plupart de ces éléments sont en jeu, continue M. Hay. Vous pouvez utiliser les outils d’appel basés sur l’IA. Ils peuvent planifier. Ils peuvent raisonner et revenir avec de bonnes réponses. Ils peuvent utiliser le calcul du temps d’inférence. Vous aurez de meilleures chaînes de pensée et plus de mémoire pour travailler. Ça va aller vite. Ça va être bon marché. Cela vous amène à une structure où je pense que vous pouvez avoir des agents. Les modèles s’améliorent de plus en plus, ce qui ne fera qu’accélérer les choses. »
Mme Ashoori prend soin de faire la différence entre ce que les agents pourront faire plus tard et ce qu’ils peuvent faire maintenant. « Il y a la promesse, et il y a ce que l’agent est capable de faire aujourd’hui, dit-elle. Je dirais que la réponse dépend du cas d’utilisation. Pour les cas d’utilisation simples, les agents sont capables de [choisir le bon outil], mais pour les cas d’utilisation plus sophistiqués, la technologie doit encore mûrir.
Mme Danilevsky recadre le récit comme un récit contextuel. Si quelque chose est vrai une fois, cela ne signifie pas que c’est vrai tout le temps. Y a-t-il certaines choses que les agents peuvent faire ? Bien sûr. Cela signifie-t-il que vous pouvez agentiser n’importe quel flux qui survient ? Non. »
Pour M. Gajjar, la question est celle du risque et de la gouvernance. « Nous voyons les agents IA passer du statut de générateurs de contenu à celui de résolveurs de problèmes autonomes. Ces systèmes doivent être rigoureusement testés dans des environnements bac à sable pour éviter les défaillances en cascade. La conception de mécanismes pour les actions de retour en arrière et la mise en place de journaux d’audit font partie intégrante de la viabilité de ces agents dans les secteurs à fort enjeu. »
Mais elle est optimiste quant à notre capacité à relever ces défis. « Je pense que nous verrons des progrès cette année en ce qui concerne la création de mécanismes d’annulation et de pistes d’audit. Il ne s’agit pas seulement de développer une IA plus intelligente, mais aussi de concevoir des filets de sécurité afin de pouvoir détecter et résoudre les problèmes rapidement en cas de problème. »
Et si M. Hay est optimiste quant au potentiel du développement des agents en 2025, il voit un problème dans un autre domaine : « La plupart des organisations ne sont pas prêtes pour les agents. Ce qui va être intéressant, c’est d’exposer les API dont vous disposez aujourd’hui dans vos entreprises. C’est là que le travail passionnant se fera. Et il ne s’agira pas de savoir si les modèles seront bons. Il s’agira de savoir si votre entreprise est prête. »
La « nouvelle normalité » envisagée par ce récit voit des équipes d’agents IA regroupées sous des uber-modèles orchestrateurs qui gèrent l’ensemble du workflow du projet.
Les entreprises utiliseront l’orchestration de l’IA pour coordonner plusieurs agents et autres modèles de machine learning (ML) travaillant en tandem et utilisant une expertise spécifique pour effectuer des tâches.
M. Gajjar estime que cette prédiction est non seulement crédible, mais aussi probable. « Nous n’en sommes qu’au tout début de cette évolution, mais elle est rapide. Les orchestrateurs d’IA pourraient facilement devenir l’épine dorsale des systèmes d’IA d’entreprise cette année en connectant plusieurs agents, en optimisant les workflows IA et en traitant les données multilingues et multimédias », opine-t-elle. Toutefois, elle met en garde contre la tentation de se précipiter sans avoir mis en place les mesures de protection appropriées.
« Dans le même temps, la mise à l’échelle de ces systèmes aura besoin de cadres des exigences solides pour assurer le bon fonctionnement sans sacrifier la responsabilité, prévient M. Gajjar. 2025 pourrait être l’année où nous passerons des expérimentations à l’adoption à grande échelle, et je suis impatient de voir comment les entreprises trouveront l’équilibre entre rapidité et responsabilité. »
Il est impératif que les entreprises se consacrent avec autant de ferveur aux données et à la gouvernance de l’IA et conformité qu’à l’adoption des dernières innovations.
« Vous aurez un orchestrateur d’IA qui travaillera avec plusieurs agents », explique M. Hay. « Un modèle plus grand servira d’orchestrateur, tandis que les modèles plus petits effectueront des tâches restreintes. »
Cependant, à mesure que les agents évoluent et s’améliorent, M. Hay prédit un passage des workflows à des systèmes à agent unique. « Au fur et à mesure que ces agents individuels deviennent plus compétents, vous allez dire : « J’ai cet agent qui peut tout faire de bout en bout. »
M. Hay prévoit une évolution en dents de scie au fur et à mesure que les modèles se développent. « Vous atteindrez une limite [à ce que les agents individuels peuvent faire], puis vous reviendrez à la collaboration multi-agents. Il y aura un va-et-vient entre le cadre des exigences multi-agents et un seul agent divin ». Et si les modèles IA sont ceux qui détermineront le déroulement des workflows de projets, M. Hay pense que les humains resteront toujours dans la boucle.
Pour Mme Ashoori, la nécessité d’un méta-orchestrateur n’est pas tout à fait évidente et se résume au cas d’utilisation prévu. « C’est une décision d’architecture, explique-t-elle. Chaque agent, par définition, devrait avoir les capacités de déterminer s’il a besoin d’orchestrer avec un autre agent, de faire appel à un ensemble d’outils ou s’il a besoin de données complémentaires. Vous n’avez pas nécessairement besoin d’un agent intermédiaire qui se trouve au sommet et qui surveille tout le monde pour leur dire quoi faire ».
Mais, dans certains cas, c’est possible. « Vous devrez peut-être trouver comment utiliser une combinaison d’agents spécialisés pour votre objectif, suppose Mme Ashoori. Dans ce cas, vous pouvez décider de créer votre propre agent qui servira d’orchestrateur. »
Mme Danilevsky conseille aux entreprises de comprendre d’abord quels workflows peuvent et doivent être gérés en fonction du degré de ROI, puis de développer une stratégie d’IA à partir de là. « Y aura-t-il des flux d’orchestration avec certains agents ? Oui. Mais au sein de votre organisation, tout devrait-il être orchestré avec un flux agentique ? Non, ça ne marchera pas. »
Une vision qui prévaut de l’adoption des agents au cours de l’année prochaine est celle qui voit les agents renforcer, mais pas nécessairement remplacer, les travailleurs humains. Ils contribueront à un workflow rationalisé dirigé par des humains, affirment les défenseurs.
Cependant, les craintes de perte d’emplois liées à l’IA sont une constante dans le débat en cours sur l’adoption de l’IA en entreprise. À mesure que les agents deviennent plus compétents, les chefs d’entreprise encourageront-ils la collaboration entre agents humains ou chercheront-ils à remplacer les agents par des outils d’IA ?
Mme Ashoori estime que la meilleure voie à suivre consiste à faire confiance aux employés pour déterminer l’utilisation optimale de l’IA dans le cadre de leurs fonctions respectives. « Nous devrions donner aux employés les moyens de décider comment ils veulent tirer parti des agents, sans nécessairement les remplacer dans toutes les situations », explique-t-elle. Certaines fonctions peuvent être confiées à un agent, tandis que d’autres ne peuvent être remplacées par l’intervention d’un être humain. « Un agent peut transcrire et résumer une réunion, mais vous n’allez pas envoyer votre agent pour avoir cette conversation avec moi. »
Mme Danilevsky partage le point de vue de Mme Ashoori et note que l’adoption d’agents dans les lieux de travail ne se fera pas sans difficulté. « Il y aura toujours des cas où, dès que quelque chose deviendra plus complexe, vous aurez besoin d’un être humain. » Alors que les chefs d’entreprise pourraient être tentés de réduire les coûts à court terme en supprimant des emplois, l’utilisation des agents « … va s’installer beaucoup plus dans une sorte de rôle augmenté. Vous êtes censé avoir constamment un humain, et l’humain est aidé, mais c’est l’humain qui prend les décisions finales », déclare Mme Danilevsky, décrivant sa vision de l’IA « human-in-the-loop » (HITL).
M. Hay estime qu’il existe une voie vers l’adoption durable de l’IA au travail. « Si nous nous y prenons bien, l’IA est là pour aider les humains à mieux faire les choses. Si l’IA est utilisée correctement, elle nous libère et nous permet de faire des choses plus intéressantes ». Mais en même temps, elle peut imaginer une autre version de l’avenir dans laquelle l’IA serait considérée comme une priorité trop importante. « Il existe un risque réel que, lorsque l’IA est mal utilisée, les humains augmentent l’IA au lieu de faire l’inverse. »
M. Gajjar met également en garde contre une trop grande dépendance à l’égard de l’IA. « Je ne pense pas que les agents IA remplaceront les emplois du jour au lendemain, mais ils remodèleront sans aucun doute notre façon de travailler. Les tâches répétitives et de faible valeur sont déjà automatisées, ce qui libère les gens pour un travail plus stratégique et créatif. Cela dit, les entreprises doivent être attentives à la manière dont elles introduisent la gouvernance de l’IA cadre des exigences, comme celles qui sont axées sur l’équité, la transparence et la responsabilité, qui seront déterminantes. »
Pour M. Hay, l’un des avantages des modèles IA open source est qu’ils ouvrent la voie à un futur agent IA marketplace et à une monétisation ultérieure pour les créateurs. « Je pense que les agents open source sont la clé, déclare M. Hay. Grâce à l’open source, n’importe qui peut créer un agent, et celui-ci peut effectuer des tâches utiles. Et vous pouvez créer votre propre entreprise. »
Selon M. Hay, il est également important d’évaluer les difficultés de croissance et la restructuration organisationnelle potentielles par rapport au pilotage par l’IA avantage, en particulier dans les pays du Sud.
Les LLM fournissent des résultats textuels qui peuvent atteindre les utilisateurs par SMS dans les zones sans connexion Internet fiable. « C’est très excitant de voir comment cela peut se produire dans les pays [sans accès Internet fiable] parce que l’IA peut fonctionner dans un scénario à faible bande passante et qu’elle devient de moins en moins chère », déclare M. Hay.
Au cours de ces conversations, deux thèmes sont revenus sans cesse dans la bouche de nos quatre experts. Outre les quatre récits que nous avons examinés, une voie durable dans l’explosion actuelle de l’IA exigera des entreprises et des chefs d’entreprise qu’ils adoptent deux idées :
« Les entreprises ont besoin de cadres des exigences pour suivre la performance et garantir la responsabilité à mesure que ces agents s’intègrent de plus en plus dans les opérations, insiste M. Gajjar. C’est là que l’approche d’IA responsable d’IBM est vraiment remarquable. Il s’agit de s’assurer que l’IA fonctionne avec les gens, et non contre eux, et de créer des systèmes fiables et vérifiables dès le premier jour. »
Ashoori décrit un scénario catastrophe potentiel lié à l’IA agentique. « Aujourd’hui, utiliser un agent revient essentiellement à se procurer un LLM et à lui permettre d’agir en votre nom. Que se passerait-il si cette action consistait à se connecter à un jeu de données et à supprimer un grand nombre de dossiers sensibles ? »
« La technologie ne pense pas. Elle ne peut pas être responsable », affirme Mme Danilevsky. En ce qui concerne les risques tels que la fuite ou la suppression accidentelle de données, « l’échelle du risque est plus élevée, dit-elle. Il y a des limites à ce qu’un humain peut faire en un temps donné, alors que la technologie peut faire des choses en beaucoup moins de temps et d’une manière que nous pourrions ne pas remarquer. »
Et lorsque cela se produit, on ne peut pas simplement pointer du doigt l’IA et rejeter toute la responsabilité sur les responsables de l’entreprise. « Un membre de l’entreprise sera tenu responsable de ces actes », prévient M. Hay.
« Le défi, c’est donc la transparence, explique Mme Ashoori. Et la traçabilité des actions pour chaque action des agents. Vous devez savoir exactement ce qui se passe et être capable de le suivre, de le retracer et de le contrôler. »
Pour Mme Danilevsky, l’expérimentation libre est la voie du développement durable. « [Il est très utile] de permettre aux gens de jouer avec la technologie, de la construire et d’essayer de la casser. Elle invite également les développeurs à faire preuve de prudence lorsqu’ils déterminent les modèles à utiliser et les données qu’ils introduisent dans ces modèles. « [Certains fournisseurs prendront] toutes vos données. Soyez donc un peu prudent. »
« L’essor actuel de l’IA est absolument dû au FOMO, et il s’atténuera lorsque la technologie se normalisera, prédit Mme Danilevsky. Je pense que les gens vont commencer à mieux comprendre ce qui fonctionne et ce qui ne fonctionne pas. L’accent doit également être mis sur l’intégration des agents IA dans des écosystèmes où ils peuvent apprendre et s’adapter en permanence, ce qui permet de gagner en efficacité à long terme », ajoute M. Gajjar.
Mme Danilevsky n’hésite pas à définir les attentes et à recentrer la conversation sur les besoins commerciaux démontrables. « Les entreprises doivent faire attention à ne pas devenir le marteau en quête d’un clou, commence-t-elle. C’était le cas lorsque les LLM sont apparus pour la première fois. Les gens ont dit : "Première étape : nous allons utiliser des LLM. Deuxième étape : à quoi devons-nous les utiliser ?" »
M. Hay encourage les entreprises à se préparer à l’intervention des agents. « Ce sont les entreprises qui prennent leurs données privées et les organisent de manière à ce que les agents effectuent des recherches à partir de vos documents qui seront les plus utiles. Chaque entreprise possède une mine de données propriétaires précieuses, et la transformation de ces données de manière à ce qu’elles puissent alimenter le workflow d’un agent permet d’obtenir des résultats positifs ROI.
« Avec les agents, les entreprises ont la possibilité de tirer parti de leurs données propriétaires et leurs workflows existants pour se différencier et dimensionner, explique Mme Ashoori. L’année dernière a été l’année de l’expérimentation et de l’exploration pour les entreprises. Ils doivent étendre cet impact et maximiser leur ROI de l’IA générative. Les agents IA sont les moyens d’y parvenir. »
Pour plus d’informations sur la mise en œuvre réussie de l’IA dans l’entreprise, lisez le guide de Maryam Ashoori sur l’analyse des coûts de l’IA agentique. Ne manquez pas non plus les explications de Vyoma Gajjar et Chris Hay sur leurs prédictions pour l’IA en 2025 sur le podcast Mixture of Experts d’IBM.
1 5 Predictions for AI in 2025, Tharin Pillay and Harry Booth, Time, 16 janvier 2025.
2 Autonomous agents and profitability to dominate AI agenda in 2025, executives forecast, Katie Paul, Reuters, 13 décembre 2024.
3 2025: Agentic and Physical AI — A Multitrillion Dollar Economy Emerges, Timothy Papanderou, Forbes, 15 janvier 2025.
Rationalisez vos workflows et rentabilisez votre journée grâce à la technologie d’automatisation de watsonx Orchestrate.
Construisez l’avenir de votre entreprise avec des solutions d’IA en lesquelles vous pouvez avoir confiance.
IBM Consulting et ses services d’IA accompagnent les entreprises dans la redéfinition de leurs activités avec l’intelligence artificielle pour mener leur transformation.