Alors que l’on approche du milieu de l’année, c’est l’occasion de revenir sur les principales tendances de 2025 en matière d’intelligence artificielle et de réfléchir à ce que les mois restants nous réservent.
Compte tenu de l’ampleur et de la profondeur du développement de l’IA, il est impossible de faire un tour d’horizon exhaustif des tendances dans ce domaine. Et le présent article ne fait pas exception à la règle. Nous avons en effet réduit le nombre de tendances à 10 : 5 avancées qui ont marqué le premier semestre de l’année et 5 autres qui devraient jouer un rôle majeur dans les mois à venir.
Les tendances en matière d’IA sont déterminées non seulement par les progrès des modèles et des algorithmes d’IA eux-mêmes, mais aussi par l’éventail toujours plus large des cas d’utilisation auxquels les capacités de l’IA générative sont appliquées. À mesure que les modèles gagnent en capacité, en polyvalence et en efficacité, il en va de même pour les applications d’IA, les outils d’IA et les autres workflows alimentés par l’IA qui en découlent. Bien comprendre l’évolution de l’écosystème actuel de l’IA nécessite donc un décryptage contextuel des causes et des effets des percées en matière de machine learning.
Cet article explore principalement les tendances en cours dont l’impact réel pourrait se concrétiser d’ici quelques mois : en d’autres termes, les tendances ayant un impact tangible principalement en 2025. Il existe, bien entendu, d’autres initiatives en matière d’IA qui sont plus anciennes et plus familières. Par exemple, bien que des progrès en matière de véhicules entièrement autonomes aient été réalisés de manière sporadique (des projets pilotes de taxis robots ont été lancés dans une poignée de villes américaines, avec des essais supplémentaires à Oslo, Genève et dans 16 villes chinoises), il faudra probablement encore des années avant qu’ils ne se généralisent.
De nombreuses autres macro-tendances importantes de l’IA, telles que l’avènement des agents d’IA ou la perturbation des comportements de recherche et du référencement par l’IA, sont vastes, multiformes et déjà bien couvertes ailleurs, et ont donc été laissées de côté au profit de développements plus ciblés qui n’ont pas reçu une attention médiatique aussi large.
Cela dit, venons-en à la liste.
Le progrès ne passe pas nécessairement par un afflux constant d’idées nouvelles. La plupart des tendances majeures en matière d’IA au cours du premier semestre 2025 traduisent des changements dans la manière dont le secteur applique les idées existantes, certaines pragmatiques et productives, d’autres moins.
Les modèles d’aujourd’hui sont non seulement beaucoup plus performants que les modèles d’antan, mais aussi beaucoup moins coûteux à utiliser. Prenons ce graphique de SemiAnalysis : en moins de deux ans, le prix par token pour obtenir des résultats équivalents sur le test MMLU a été divisé par plus de dix. Ce n’est pas une surprise pour les personnes qui ont suivi les indicateurs de performance des générations successives de modèles. Mais dans son ensemble, ce rythme d’amélioration en constante accélération illustre l’engouement suscité par l’IA générative mieux que les capacités déjà impressionnantes des modèles d’IA actuels.
Une étude estime le rythme d’amélioration algorithmique à environ 400 % par an. En d’autres termes, les résultats d’aujourd’hui peuvent être obtenus un an plus tard en utilisant un quart de la puissance de calcul, et cela sans tenir compte des améliorations simultanées en calcul (voir : Loi de Moore) ou données d’entraînement synthétiques. La version GPT-4 initiale, supposée comporter environ 1,8 milliard de paramètres1, a obtenu un score de 67 % sur HumanEval, un benchmark populaire de performance de codage. IBM Granite 3.3 2B Instruct, publié 2 ans plus tard et 900 fois plus petit, a obtenu un score de 80,5 %.2
Cette expansion exponentielle de l’économie des modèles, plus que toute autre chose, est ce qui rend possible l’ère émergente des agents d’IA. L’aspect pratique des grands modèles de langage (LLM) se développe plus rapidement que leurs capacités, ce qui permet de déployer des systèmes multi-agents complexes dans lesquels un ensemble de modèles peut planifier, exécuter et coordonner des tâches complexes de manière autonome, sans que les coûts d’inférence ne montent en flèche.
La sortie de l’o1 d’OpenAI a introduit une nouvelle Avenue® pour la performance des modèles. Son amélioration spectaculaire par rapport aux performances de pointe en matière de benchmarks et de codage hautement techniques a déclenché une course aux armements dans les soi-disant « modèles de raisonnement ». Leurs performances améliorées dans les tâches nécessitant des capacités logiques de prise de décision jouent un rôle important dans le développement de l’IA agentique. Mais comme c’est souvent le cas avec la technologie de l’IA, la frénésie initiale autour des performances brutes a récemment cédé la place à une recherche de la mise en œuvre la plus pratique.
L’intuition à la base des modèles de raisonnement découle d’une recherche démontrant que l’augmentation des ressources de calcul au moment du test (utilisées pour générer une sortie) pourrait améliorer les performances du modèle autant que l’augmentation des ressources de calcul au moment de l’entraînement (utilisées pour entraîner un modèle). Cette idée s’est traduite par des techniques permettant d’affiner les modèles de manière à encourager la génération de « processus de pensée » plus longs et plus complexes avant la sortie finale, une école de techniques généralement appelée « inference scaling » (mise à l’échelle de l’inférence).
Mais la mise à l’échelle de l’inférence signifie également une augmentation des coûts d’inférence et de la latence. Les utilisateurs doivent payer (et attendre) pour tous les tokens que le modèle génère pendant qu’il « réfléchit » aux réponses finales, et ces tokens de réflexion empiètent sur la fenêtre de contexte disponible. Certains cas d’utilisation justifient ce temps et ces calculs supplémentaires, mais pour de nombreux scénarios, il s’agit bel et bien d’un gaspillage de ressources. Cela dit, passer constamment d’un modèle de raisonnement à un modèle « standard » tâche par tâche, invite par invite n’est absolument pas pratique.
Pour l’instant, la solution est les « modèles de raisonnement hybrides ». En février, IBM Granite 3.2 est devenu le premier LLM à offrir un mode "réflexion" commutable, permettant aux utilisateurs de tirer parti de le raisonnement lorsqu’ils en ont besoin et de donner la priorité à l’efficacité lorsqu’ils n’en ont pas besoin3 Claude 3.7 Sonnet d’Anthropic a emboîté le pas, permettant aux utilisateurs d’API d’avoir un contrôle précis sur la durée pendant laquelle le modèle « réfléchit ».4 Google a introduit une fonction de modularité « thinking » similaire pour le Gemini 2.5 Flash.5 Qwen3 d’Alibaba, comme IBM Granite, permet d’activer ou de désactiver la réflexion.
Les recherches en cours visent à mieux comprendre ce qui se passe réellement lorsque les modèles de raisonnement « Think », et à déterminer dans quelle mesure les traces de raisonnement de la chaîne de pensée étendue (CoT) contribuent réellement aux Résultats. Un article publié en avril suggère que pour certaines tâches, les modèles de raisonnement peuvent être efficaces sans produire des pensées D’autre part, l’étude d’Anthropic du début du mois affirme que les résultats du CoT présentés à l’utilisateur ne reflètent peut-être pas réellement ce que le modèle « pense ».
Le développement de l’IA s’est toujours fortement appuyé sur l’exploitation de référentiels de connaissances open source, tels que Wikipédia et GitHub. Leur importance ne fera qu’augmenter à l’avenir, surtout après les révélations très médiatisées selon lesquelles de grands développeurs d’IA ont entraîné des modèles sur des pléthores de livres piratés, ce qui découragera vraisemblablement l’utilisation continue de ces sources alternatives. Pour les entreprises qui gèrent de précieuses ressources open source, la situation est déjà très tendue.
Alors qu’une multitude de poursuites judiciaires ont sensibilisé aux dangers de la collecte de données sur la propriété intellectuelle – qu’elles soient légales, illégales ou ambiguës – moins d’attention a été accordée à la manière dont la soif de données des systèmes d’IA nuit aux référentiels de connaissances. Comme l’a déclaré la Wikimedia Foundation en avril dans une annonce sur le trafic des bots, « [leur] contenu est gratuit, [leur] infrastructure ne l’est pas. » Wikimedia, en particulier, a subi un flux de trafic Web potentiellement insoutenable provenant de bots collectant des données pour entraîner des modèles d’IA générative. Depuis janvier 2024, la bande passante utilisée pour le téléchargement du contenu multimédia de Wikipédia a augmenté de 50 %.
L’augmentation du volume du trafic est préoccupante en soi, mais c’est la nature de ce trafic qui exerce une pression disproportionnée sur des ressources limitées. Le comportement humain de navigation est prévisible : notre trafic se regroupe sur des pages populaires et suit des modèles logiques, permettant des stratégies d’automatisation et de mise en cache qui allouent efficacement la bande passante. Mais contrairement aux humains, les bots explorent sans discernement les pages obscures, ce qui oblige souvent les centres de données à les servir directement. Cette approche est non seulement coûteuse et inefficace dans des circonstances ordinaires, mais potentiellement désastreuse dans les situations où l’infrastructure doit répondre à des pics d’utilisation réels.
Comme le rapporte Ars Technica, ce problème est généralisé et exacerbé par ce que beaucoup considèrent comme un comportement délibérément prédateur de la part des robots d’indexation et des entreprises qui les exploitent. Plusieurs d’entre elles, à l’image de Perplexity, ont été accusées de contourner subrepticement les fichiers robots.txt et même de contourner les paywalls (ou verrous d’accès payant) en vue de récupérer des données. Lorsque les sites Web tentent de limiter l’accès des robots, ces derniers sont transférés vers d’autres adresses IP ; lorsque leur identifiant est bloqué directement, ils utilisent d’autres chaînes d’identifiants. Un gestionnaire d’infrastructure open source, qui a constaté que près de 25 % du trafic de son réseau provenait de bots ChatGPT, a décrit ce phénomène comme « un DDoS sur l’ensemble d’Internet ».
En réponse, de nombreux projets cherchent activement à mettre en place des mesures défensives. Un projet open source, Anubis, oblige les bots à résoudre des énigmes de calcul avant d’obtenir l’accès. Un autre, Nepenthes, envoie des robots d’indexation d’IA dans un « labyrinthe infini ». Cloudflare, un important fournisseur d’infrastructure Web, a récemment lancé une fonctionnalité appelée « AI Labyrinth », qui utilise une approche similaire (bien que moins agressive). Wikimedia a lancé une nouvelle initiative, « WE5: Responsible Use of Infrastructure » (Utilisation responsable de l’infrastructure), qui vise à trouver une solution structurelle.
La capacité du développement commercial de l’IA et des référentiels de connaissances ouverts à développer en collaboration un protocole mutuellement adapté aura un impact considérable non seulement sur l’avenir de l’IA, mais aussi sur l’avenir d’Internet lui-même.
Bien que le concept des modèles de mélange d’experts (MoE) remonte à 1991, son entrée dans le traitement automatique du langage naturel (TALN) ou l’IA générative grand public n’a eu lieu qu’à la publication par Mistral AI de son modèle Mixtral à la fin de 20236. Bien que le modèle et son architecture aient suscité une grande attention, et que GPT-4 d’OpenAI ait fait l’objet d’une rumeur (jamais confirmée) selon laquelle il s’agirait d’un MoE lors de sa sortie, cela n’a pas incité le secteur à se détourner de son intérêt pour les LLM conventionnels « denses ».
Cet intérêt semble avoir changé à la suite de DeepSeek-R1. DeepSeek-R1, et le modèle de base DeepSeek-V3 à partir duquel il a été affiné, ont démontré de manière concluante que les modèles MoE étaient parfaitement capables d’offrir des performances de pointe en complément de leur efficacité de calcul déjà éprouvée.
Ce nouvel intérêt pour les modèles MoE épars est évident dans la vague actuelle de modèles de nouvelle génération qui utilisent l’architecture, y compris (mais pas exclusivement) Meta Llama 4, Qwen3 d’Alibaba et IBM Granite 4.0. Il est également possible que certains modèles fermés de premier plan, comme OpenAI, Anthropic ou Google, soient des MoE, bien que de telles informations sur l’architecture des modèles fermés soient rarement divulguées.
La capacité et les performances impressionnantes devenant de plus en plus courantes dans les années à venir, la vitesse d’inférence et l’efficacité offertes par les modèles clairsemés deviendront probablement une priorité plus importante.
L’avenir est toujours difficile à prédire. Étant donné le rythme effréné d’amélioration des générations précédentes de modèles IA, beaucoup s’attendaient à ce que cette génération de modèles soit publiée en 2025 pour faire des étapes significatives vers l’intelligence artificielle générale (AGI) . Si les derniers modèles d’OpenAI, de Meta et des acteurs les plus financés dans le domaine de l’IA sont sans aucun doute impressionnants, ils ne sont certainement pas révolutionnaires .
Sur le plan de la mise en œuvre pratique, les progrès ont été irréguliers. De nombreux chefs d’entreprise qui étaient optimistes quant aux perspectives d’adoption de l’IA à la fin de l’année 2023 ont passé l’année 2024 à se rendre compte que leur infrastructure informatique n’était pas encore prête à soutenir le déploiement de l’IA.
Un refrain qui revient souvent parmi les analystes de l’IA est que l’IA prendra en charge les tâches banales et répétitives et libérera du temps pour que les humains puissent se concentrer sur la pensée créative et la vue d’ensemble. Mais jusqu’à présent, les données sur l’adoption de l’IA ne reflètent pas nécessairement cela dans la réalité. Une étude menée par l’IBM Institute for Business Value (IBV) montre tout le contraire, du moins dans la chaîne d’approvisionnement du commerce de détail : 88 % des détaillants ont déclaré utiliser l’IA générative pour « l’idéation/conception créative » et 74 % pour « la création et l’édition de contenu ». Pendant ce temps, la plupart des tâches de routine restent du domaine humain : seuls 23 % des détaillants utilisent l’IA générative pour générer des variations de contenu par canal et seulement 10 % l’utilisent pour générer des variations de contenu par géolocalisation.
Dans l’ensemble, ce n’est pas que les entreprises ne s’engagent pas activement dans l’adoption de l’IA – un nouveau rapport d’IBV montre qu’elles s’y attèlent, en particulier en ce qui concerne les agents d’IA – mais plutôt que l’adoption ne se produit pas à un rythme direct et linéaire. Le passage de l’expérimentation à l’opérationnalisation formelle se fait rarement sans heurts.
D’ici la seconde moitié de 2025 (et jusqu’au début de l’année prochaine), les éléments seront en place pour remettre en cause de manière significative certains aspects du statu quo en place depuis les premiers jours de l’ère de l’IA générative en cours.
Fondamentalement, il n’existe pas de test de performance (ou d’ensemble de tests de performance) parfait en matière d’IA. Tout test de performance (ou « benchmark ») est soumis à la loi de Goodhart : « Lorsqu’une mesure devient la cible, elle cesse d’être une bonne mesure ». Néanmoins, le développement de modèles, de même que les chefs d’entreprise chargés de choisir des solutions et des modèles d’IA spécifiques, ont tout à gagner à disposer de mesures de performance normalisées et administrées de manière transparente afin d’obtenir des résultats comparables.
Le premier ensemble « standard » de tests de performance autour duquel le secteur s’est regroupée était celui utilisé par la plateforme Open LLM Leaderboard sur Hugging Face. La saturation de ses tests de performance, c’est-à-dire lorsque la plupart des modèles ont fini par obtenir des scores d’évaluation si similaires qu’il était difficile de les différencier, a conduit la plateforme à adopter de nouvelles évaluations nettement plus exigeantes en juin 2024. Une fois de plus, les modèles ouverts et fermés se sont coalisés autour de l’évaluation des performances utilisant les tests d’évaluation V2 de la plateforme. Mais en mars 2025, Hugging Face a complètement supprimé l’Open LLM Leaderboard.
Le retrait de la plateforme et l’éloignement de l’ensemble standard de tests de performance qu’il défendait ont provoqué, et ont été provoqués par, une diversification de la façon dont nous utilisons les modèles et évaluons leur performance.
Il y a eu un certain élan en faveur de l’utilisation de méthodes de comparaison de modèles plus qualitatives, telles que le populaire Chatbot Arena, plutôt que d’évaluations quantitatives. Mais ces méthodes sont elles aussi imparfaites. Un article publié récemment par un ensemble de chercheurs universitaires et open source respectés allègue plusieurs pratiques problématiques de Chatbot Arena qui favorisent fortement les plus grands fournisseurs de modèles. Cet article fait suite à des allégations selon lesquelles Meta aurait exploité Chatbot Arena lors de la sortie de Llama 4.
La réalité est qu’aucun test de performance n’est meilleur qu’un autre. Le mieux est probablement que les entreprises mettent au point des tests qui leur sont propres et qui reflètent au mieux les performances sur les tâches qui leur importent. De la même manière qu’une entreprise n’engagerait pas un employé en se basant uniquement sur un test de QI, elle ne devrait pas choisir un modèle en se basant uniquement sur des tests standardisés.
Introduits pour la première fois en 2017, les modèles de transformeur sont en grande partie responsables de l’ère de l’IA générative, et restent l’épine dorsale de l’ensemble du système, de la génération d’images aux modèles de séries temporelles, en passant par les LLM. Bien que les transformeurs ne sont pas appelés à disparaître de sitôt, ils sont sur le point d’avoir de la compagnie.
Les transformeurs ont énorme point faible : leurs besoins en calcul augmentent de façon quadratique avec le contexte. En d’autres termes, chaque fois que la longueur de votre contexte double, le mécanisme d’auto-attention n’utilise pas seulement le double des ressources, mais le quadruple. Ce problème quadratique limite intrinsèquement la vitesse et l’efficacité des LLM conventionnels, en particulier sur les séquences plus longues ou lors de l’incorporation d’informations antérieures dans un échange prolongé. L’optimisation continue de l’architecture des transformeurs permet d’obtenir des modèles plus performants, mais ils deviennent extrêmement coûteux.
Introduit en 2023, Mamba est un tout autre type d’architecture de modèle (un modèle d’espace d’état, plus précisément) et il est sur le point de s’imposer comme le premier concurrent sérieux aux transformeurs dans le domaine des LLM. Cette architecture s’est avérée capable d’égaler les transformeurs dans la plupart des tâches de modélisation du langage (à l’exception des tâches d’apprentissage en contexte telles que l’apprentissage few-shot) et ses besoins en matière de calcul augmentent de façon linéaire avec la longueur du contexte. En d’autres termes, la façon dont Mamba comprend le contexte est intrinsèquement plus efficace : alors que le mécanisme d’auto-attention des transformeurs doit examiner chaque token et décider à plusieurs reprises auxquels prêter attention, le mécanisme de sélectivité de Mamba retient uniquement les tokens qu’il juge importants.
Concernant l’avenir de l’IA, il ne s’agit pas de choisir entre les transformeurs ou Mamba : en réalité, la recherche suggère qu’un hybride des deux se révèle plus efficace que l’un ou l’autre seul. Plusieurs modèles Mamba ou hybrides (Mamba/transformeurs) ont été mis sur le marché l’année dernière. La plupart étaient des modèles réservés à la recherche universitaire, à l’exception notable du Codestral Mamba de Mistral AI et de la série hybride Jamba d’AI2I. Plus récemment, la prochaine série IBM® Granite 4.0 utilisera un hybride des architectures de transformeurs et de Mamba-2.
Plus important encore, les exigences matérielles réduites des modèles Mamba et hybrides permettront de diminuer considérablement les coûts liés au matériel, ce qui contribuera à démocratiser encore davantage l’accès à l’IA.
L’avènement des modèles d’IA multimodale a marqué l’expansion des LLM au-delà du texte, mais le développement de l’IA aspire prochainement à apporter ces capacités multimodales dans le monde physique.
Ce domaine émergent relève en grande partie de l’« IA incarnée ». Les sociétés de capital-risque injectent de plus en plus de fonds dans les start-ups qui se consacrent à la robotique humanoïde avancée et optimisée par l’IA générative, par exemple Skild AI, Physical Intelligence et 1X Technologies.
Un autre courant de recherche se concentre sur les « modèles du monde », qui visent à modéliser les interactions du monde réel de manière directe et holistique, plutôt qu’indirecte et discrète, par le biais de données linguistiques, d’images et de vidéos. World Labs, une startup dirigée par Fei-Fei Li de Stanford, célèbre notamment pour le jeu de données ImageNet qui a contribué à ouvrir la voie à la vision moderne par ordinateur, a levé 230 millions de dollars à la fin de l’année dernière.
Certains laboratoires de ce domaine mènent des expériences dans des « mondes virtuels », tels que les jeux vidéo : Genie 2 de Google DeepMind, par exemple, est un modèle de fondation du monde capable de générer une variété infinie d’environnements 3D jouables et contrôlables par l’action. Le secteur du jeu vidéo pourrait, naturellement, être le premier à bénéficier directement du potentiel économique des modèles du monde.
De nombreux grands experts de l’IA, dont Yann LeCun, chief AI scientist de Meta et l’un des trois « parrains de l’apprentissage profond7 », estiment que les modèles du monde, et non les LLM, constituent la véritable voie vers l’IAG. Dans ses commentaires publics, Y. LeCun fait souvent allusion au paradoxe de Moravec, la notion contre-intuitive selon laquelle, en matière d’IA, les capacités de raisonnement complexes sont simples, mais les tâches motrices, sensorielles et de perception simples qu’un enfant peut effectuer facilement ne le sont pas8.
Dans le même ordre d’idées, certains projets de recherche intéressants visent à apprendre à l’IA à comprendre des concepts, plutôt que de simples mots, en incarnant cette IA dans un robot et en lui apprenant les choses de la même manière qu’aux enfants en bas âge.
La promesse à long terme des agents d’IA est qu’ils utiliseront l’IA pour effectuer des tâches complexes et contextuelles de manière autonome, avec peu ou pas d’intervention humaine. Afin de pouvoir personnaliser sa prise de décision en fonction des besoins spécifiques et contextuels d’un lieu de travail ou d’une situation donnée, comme le ferait un employé ou un assistant compétent, un agent d’IA doit apprendre sur le tas. En d’autres termes, il doit conserver un historique solide de chaque interaction générée par l’IA et de son déroulement.
Mais rassembler et conserver cette mémoire permanente de chaque interaction peut être en contradiction avec la notion fondamentale de la confidentialité numérique dans l’IA, en particulier lorsque l’on travaille avec des modèles fermés déployés dans le cloud (par opposition au déploiement de modèles open source localement).
Par exemple, en avril, OpenAI a annoncé que ChatGPT se souviendrait désormais automatiquement de toutes les conversations que vous avez eues avec lui, conformément à son objectif de mettre au point des « systèmes d’IA qui apprennent à vous connaître tout au long de votre vie ». Or, la fonctionnalité n’a pas été déployée dans l’UE, au Royaume-Uni, en Suisse, en Norvège, en Islande et au Liechtenstein, vraisemblablement car elle contrevient aux lois sur la protection de la vie privée et aux réglementations en matière d’IA en vigueur dans ces pays9.
Il reste à déterminer si un modèle qui non seulement enregistre toutes ses interactions personnalisées avec vous, mais les utilise également à des fins d’entraînement et d’optimisation continus est fondamentalement compatible avec les concepts clés du GDPR tels que le « droit à l’oubli ».
En effet, l’avenir de l’IA, et en particulier des agents d’IA, sera de plus en plus tourné vers la sphère personnelle, si bien que l’impact de l’IA pourrait transcender les considérations technologiques ou économiques et s’aventurer sur le terrain psychologique.
À la fin de l’année 2024, Mustafa Suleyman, PDG de Microsoft AI, a rédigé un article de blog dans lequel il déclare que son entreprise a pour objectif de « créer un compagnon d’IA pour tout le monde ». Dans une récente interview de podcast, Mark Zuckerberg, PDG de Meta, a proposé des « amis d’IA » comme solution à l’épidémie de solitude qui sévit dans le pays10. De plus en plus de startups déploient des collaborateurs d’IA.
Il y a un danger inhérent à cela, comme nous l’avons vu avec les premiers chatbots, provenant principalement de la prédisposition des humains à s’attacher émotionnellement à ces agents conversationnels, même rudimentaires. Avec des millions de personnes interagissant chaque jour avec des chatbots personnalisés, les risques d’attachement émotionnel aux collaborateurs d’IA seront complexes, conséquents et difficiles à éviter.
Alors que nous traversons une année charnière dans le domaine de l’intelligence artificielle, il est essentiel de comprendre les tendances émergentes et de s’y adapter pour maximiser le potentiel, minimiser les risques et développer de manière responsable l’adoption de l’IA générative.
¹ « GPT-4 architecture, datasets, costs and more leaked », The Decoder, 11 juillet 2023
² « IBM Granite 3.3 2B model card », Hugging Face, 16 avril 2025
³ « Bringing reasoning to Granite », IBM, 7 février 2025
⁴ « Claude 3.7 Sonnet and Claude Code », Anthropic, 24 février 2025
⁵ « Gemini Thinking », Google, 2025.
⁶ « Adaptive Mixtures of Local Experts », Neural Computation, 1er mars 1991
⁷ « Turing Award 2018: Novel Prize of computing given to ’godfathers of AI’ », The Verge, 27 mars 2019
⁸ @YLeCun sur X (anciennement Twitter), via XCancel, 20 février 2024
⁹ « ChatGPT will now remember your old conversations », The Verge, 11 April 2025
¹⁰ « Meta CEO Mark Zuckerberg Envisions a Future Where Your Friends Are AI Chatbots—But Not Everyone Is Convinced », Entrepreneur, 8 mai 2025