Qu’est-ce que l’intelligence artificielle (IA) ?
L’intelligence artificielle exploite les ordinateurs et les machines pour imiter les capacités de résolution de problèmes et de prise de décision de l’esprit humain.
Découvrir watsonx S’inscrire pour recevoir les dernières informations sur l’IA
Robot aidant dans un centre d’emballage
Qu’est-ce que l’intelligence artificielle ?

Alors qu’un certain nombre de définitions de l’intelligence artificielle (IA) sont apparues au cours des dernières décennies, John McCarthy en propose une dans cet article paru en 2004 (lien externe à ibm.com) : « Il s’agit de la science et de l’ingénierie qui consistent à créer des machines intelligentes, notamment des programmes d’ordinateur intelligents. Elle s’apparente à l’utilisation d’ordinateurs pour comprendre l’intelligence humaine, mais l’IA ne doit pas se limiter aux méthodes biologiquement observables. »

Toutefois, des décennies avant que cette définition ne soit donnée, la naissance de la conversation sur l’intelligence artificielle a été marquée par l’ouvrage fondateur d’Alan Turing, « Computing Machinery and Intelligence » (lien externe à ibm.com), qui a été publié en 1950. Dans cet article, M. Turing, souvent considéré comme le « père de l’informatique », pose la question suivante : « Les machines peuvent-elles penser ? ». Il propose ensuite un test, désormais connu sous le célèbre nom de « test de Turing », dans lequel un interrogateur humain tente de différencier la réponse textuelle d’un ordinateur de celle d’un être humain. Bien que ce test ait fait l’objet d’un examen approfondi depuis sa publication, il reste un aspect important de l’histoire de l’IA ainsi qu’un concept permanent de la philosophie puisqu’il utilise des idées autour de la linguistique.

Stuart Russell et Peter Norvig ont ensuite publié Intelligence artificielle : une approche moderne (lien externe à ibm.com), devenu l’un des principaux manuels d’étude de l’intelligence artificielle. Ils y explorent quatre objectifs ou définitions potentiels de l’IA, qui différencient les systèmes informatiques sur la base de la rationalité et de la pensée par rapport à l’action :

Approche humaine :

  • Des systèmes qui pensent comme des humains
  • Des systèmes qui agissent comme des humains

Approche idéale :

  • Des systèmes qui pensent de façon rationnelle
  • Des systèmes qui agissent de façon rationnelle

La définition d’Alan Turing entrerait dans la catégorie des « systèmes qui agissent comme des humains ».

Dans sa forme la plus simple, l’intelligence artificielle est un domaine qui associe l’informatique et des ensembles de données fiables pour faciliter la résolution de problèmes. Elle comprend également les sous-domaines du machine learning et du deep learning, qui sont souvent utilisés en conjonction avec l’intelligence artificielle. Ces disciplines sont constituées d’algorithmes d’IA qui cherchent à créer des systèmes experts qui font des prédictions ou des classifications basées sur des données entrantes.

Au fil des ans, l’intelligence artificielle a fait l’objet de nombreux cycles d’engouement, mais même pour les sceptiques, la sortie de ChatGPT d’OpenAI semble marquer un tournant. La dernière fois que l’IA générative a pris une telle ampleur, des progrès ont été enregistrés dans le domaine de la vision par ordinateur, mais aujourd’hui, c’est le traitement du langage naturel qui a fait un bond en avant. Et il ne s’agit pas uniquement du langage : les modèles génératifs peuvent également apprendre la grammaire des codes logiciels, des molécules, des images naturelles et de toute une série d’autres types de données.

Des cas d’utilisation de cette technologie se multiplient chaque jour, et nous commençons à peine à en explorer les possibilités. Mais à mesure que le battage médiatique autour de l’utilisation de l’IA dans les entreprises prend de l’ampleur, les discussions sur l’éthique revêtent une importance cruciale. Pour en savoir plus sur la position d’IBM dans le débat sur l’éthique de l’IA, cliquez ici.

Maintenant disponible : watsonx

Décuplez la puissance de l’IA dans votre entreprise grâce à la plateforme de données et d’IA nouvelle génération d’IBM.

Contenu connexe

IBM watsonx Orchestrate

IBM watsonx Assistant

Découvrir l’apprentissage de l’IA générative pour les développeurs

Comment développer une IA responsable à grande échelle
Types d’intelligence artificielle : IA faible et IA forte

L’IA faible, également appelée IA étroite (Narrow AI) ou Intelligence artificielle étroite (ANI, Artificial Narrow Intelligence), est une IA entraînée et ciblée pour effectuer des tâches spécifiques. Elle est à l’origine de la plus grande partie de l’IA qui nous entoure aujourd’hui. Le terme « étroite » conviendrait peut-être mieux à ce type d’IA car elle est tout sauf faible. En effet, elle rend possible des applications très robustes telles que Siri d’Apple, Alexa d’Amazon, watsonx d’IBM ou encore les véhicules autonomes.

L’IA forte se compose de l’intelligence artificielle générale (AGI) et de la superintelligence artificielle (ASI). L’intelligence artificielle générale (AGI), ou IA générale, est une forme théorique d’IA grâce à laquelle une machine aurait une intelligence équivalente à celle de l’homme. Elle serait dotée d’une conscience autonome capable de résoudre des problèmes, d’apprendre et de planifier l’avenir. La superintelligence artificielle (ASI), également appelée superintelligence, surpasserait l’intelligence et les capacités du cerveau humain. Bien que l’IA forte soit encore entièrement théorique et qu’aucun exemple pratique ne soit utilisé aujourd’hui, cela ne signifie pas que les chercheurs en IA ne sont pas en train d’explorer son développement. En attendant, les meilleurs exemples d’IA forte se trouvent peut-être dans la science-fiction, comme HAL, l’assistant informatique surhumain et malhonnête dans 2001 : L’Odyssée de l’espace.

Deep learning et machine learning

Le deep learning et le machine learning ayant tendance à être utilisés de manière interchangeable, il est bon de noter les nuances existant entre les deux. Comme indiqué plus haut, le deep learning et le machine learning sont tous deux des sous-domaines de l’intelligence artificielle, et le deep learning est en fait un sous-domaine du machine learning.

Le deep learning est en fait composé de réseaux neuronaux. Le terme « deep » (profond) fait référence à un réseau neuronal composé de plus de trois couches (qui comprendraient les entrées et les sorties) qui peut être considéré comme un algorithme du deep learning. Le diagramme ci-dessous illustre bien cette notion.

La différence entre le deep learning et le machine learning réside dans la manière dont chaque algorithme apprend. Le deep learning automatise une grande partie de l’extraction des caractéristiques, éliminant ainsi une partie de l’intervention humaine manuelle nécessaire et permettant l’utilisation d’ensembles de données plus importants. On peut considérer le deep learning comme un « machine learning évolutif », comme l’a noté Lex Fridman dans la même conférence du MIT que celle citée plus haut. Le machine learning classique, ou « non profond », nécessite davantage l’intervention humaine pour l’apprentissage. Les experts humains déterminent la hiérarchie des caractéristiques pour comprendre les différences entre les entrées de données, ce qui nécessite généralement des données plus structurées pour l’apprentissage.

Le machine learning « profond » (ou deep learning) peut s’appuyer sur des ensembles de données étiquetés, également connus sous le nom d’apprentissage supervisé, pour informer son algorithme, mais il n’a pas nécessairement besoin de cet ensemble de données. Il peut ingérer des données non structurées sous leur forme brute (par exemple texte, images), et peut déterminer automatiquement la hiérarchie des caractéristiques qui distinguent différentes catégories de données les unes des autres. Contrairement au machine learning, il ne nécessite aucune intervention humaine pour traiter les données, ce qui nous permet de faire évoluer le machine learning de manière plus intéressante.

 

L’essor des modèles génératifs

L’IA générative fait référence aux modèles de deep learning qui peuvent prendre des données brutes (comme l’intégralité de Wikipédia ou l’ensemble des œuvres de Rembrandt) et « apprendre » à générer des résultats statistiquement probables lorsqu’on leur demande de le faire. À un niveau élevé, les modèles génératifs codent une représentation simplifiée de leurs données d’apprentissage et s’en servent pour créer un travail similaire, sans être identique, aux données d’origine.

Les modèles génératifs sont utilisés depuis des années dans les statistiques pour analyser les données numériques. L’essor du deep learning a toutefois permis de les étendre aux images, à la parole et à d’autres types de données complexes. Les autoencodeurs variationnels (VAE), introduits en 2013, font partie de la première catégorie de modèles à avoir réussi ce croisement. Les VAE ont été les premiers modèles de deep learning à être largement utilisés pour générer des images et des discours réalistes.

« Les VAE ont ouvert la voie à la modélisation générative profonde en facilitant la mise à l’échelle des modèles, explique Akash Srivastava, expert en IA générative au MIT-IBM Watson AI Lab. Une grande partie de ce que nous considérons aujourd’hui comme l’IA générative a commencé ici. »

Les premiers exemples de modèles, comme GPT-3, BERT ou DALL-E 2, ont montré ce qui est possible. Le futur, ce sont des modèles formés sur un large ensemble de données non étiquetées qui peuvent être utilisées pour différentes tâches, avec un minimum d’ajustements. Les systèmes qui exécutent des tâches spécifiques dans un seul domaine cèdent la place à une IA plus large qui apprend de manière plus générale et fonctionne dans tous les domaines et pour toutes sortes de problèmes. Les modèles de fondation, formés sur de vastes ensembles de données non étiquetées et adaptés à toute une série de cas d’utilisation, sont à l’origine de cette évolution.

En ce qui concerne l’IA générative, on prévoit que les modèles de fondation accéléreront considérablement l’adoption de l’IA au sein des entreprises. La réduction des exigences en matière d’étiquetage facilitera grandement la tâche des entreprises, et l’automatisation hautement précise et efficace optimisée par l’IA qu’ils permettent signifiera que de plus en plus d’entreprises pourront déployer l’IA dans un plus grand nombre de situations critiques. Pour IBM, l’espoir est que la puissance des modèles de fondation puisse finalement être apportée à chaque entreprise dans un environnement cloud-hybride sans friction.

Cas d’utilisation de l’intelligence artificielle

Il existe aujourd’hui de nombreux cas d’utilisation des systèmes d’IA dans le monde réel. Voici quelques exemples les plus courants :

  • Reconnaissance vocale : elle est également connue sous le nom de reconnaissance automatique de la parole (ASR), de reconnaissance de la parole par ordinateur ou de speech-to-text. Il s’agit d’une fonctionnalité qui utilise le traitement du langage naturel (NLP) pour traiter la parole humaine dans un format écrit. De nombreux appareils mobiles intègrent la reconnaissance vocale dans leur système pour effectuer des recherches vocales (comme Siri par exemple) ou pour améliorer l’accessibilité des textes.
  • Service client : les agents virtuels en ligne remplacent les agents humains tout au long du parcours du client. Ils répondent aux questions fréquemment posées (FAQ) sur des sujets tels que l’expédition, ou fournissent des conseils personnalisés, en faisant de la vente croisée de produits ou en suggérant des tailles pour les utilisateurs, ce qui transforme notre façon d’envisager l’engagement des clients sur les sites web et les plateformes de réseaux sociaux. Parmi les exemples, on trouve les bots de messagerie sur les sites de commerce électronique avec des agents virtuels, les applications de messagerie, telles que Slack et Facebook Messenger, et les tâches habituellement effectuées par les assistants virtuels et les assistants vocaux.
  • Vision par ordinateur : cette technologie d’IA permet aux ordinateurs et aux systèmes d’extraire des informations significatives des images numériques, des vidéos et d’autres données visuelles, et de prendre des mesures en fonction de ces données. Cette capacité à fournir des recommandations la distingue des tâches de reconnaissance d’images. Optimisée par les réseaux neuronaux convolutifs, la vision par ordinateur trouve des applications dans le marquage des photos dans les réseaux sociaux, l’imagerie radiologique dans le secteur de la santé et les voitures autonomes dans le secteur de l’automobile.  
  • Moteurs de recommandation : en utilisant les données sur les comportements de consommation passés, les algorithmes d’IA peuvent permettre de découvrir des tendances de données qui peuvent être utilisées pour définir des stratégies de vente croisée plus efficaces. Les détaillants en ligne s’en servent pour recommander des produits complémentaires pertinents à leurs clients au cours du processus de paiement.
  • Trading automatique : conçues pour optimiser les portefeuilles d’actions, les plateformes de négociation à haute fréquence optimisées par l’IA effectuent des milliers, voire des millions de transactions par jour sans aucune intervention humaine.

 

Histoire de l’intelligence artificielle : dates et noms clés

L’idée d’une « machine qui pense » remonte à la Grèce antique. Mais depuis l’avènement de l’informatique (et par rapport à certains des sujets abordés dans cet article), les événements et les étapes importants de l’évolution de l’intelligence artificielle sont :

  • 1950 : Alan Turing publie Computing Machinery and Intelligence. Dans cet article, M. Turing, célèbre pour avoir déchiffré le code ENIGMA des nazis pendant la Seconde Guerre mondiale, propose de répondre à la question « les machines peuvent-elles penser ? » et introduit le test de Turing afin de déterminer si un ordinateur peut manifester la même intelligence (ou les résultats de la même intelligence) qu’un être humain. La valeur du test de Turing a fait l’objet de débats depuis.
  • 1956 : John McCarthy invente le terme « intelligence artificielle » lors de la toute première conférence sur l’IA au Dartmouth College (il inventera par la suite le langage Lisp). Plus tard cette même année, Allen Newell, J.C. Shaw et Herbert Simon créent le Logic Theorist, le tout premier programme logiciel d’IA en fonctionnement.
  • 1967 : Frank Rosenblatt construit le Mark 1 Perceptron, le premier ordinateur basé sur un réseau neuronal qui « apprend » par essais et erreurs. Un an plus tard, Marvin Minsky et Seymour Papert publient un ouvrage intitulé Perceptrons, qui devient à la fois l’ouvrage de référence sur les réseaux neuronaux et, du moins pendant un certain temps, un argument contre les futurs projets de recherche sur les réseaux neuronaux.
  • Années 1980 : les réseaux neuronaux qui utilisent un algorithme de rétropropagation pour s’entraîner sont largement utilisés dans des applications d’intelligence artificielle.
  • 1997 : Deep Blue d’IBM bat Garry Kasparov, le champion du monde d’échecs lors d’un match d’échecs (et un match revanche).
  • 2011 : IBM watsonx bat Ken Jennings et Brad Rutter, les champions de Jeopardy !
  • 2015 : le superordinateur Minwa de Baidu utilise un type particulier de réseau neuronal profond appelé réseau neuronal convolutif pour identifier et catégoriser les images avec un taux de précision supérieur à celui de l’humain lambda.
  • 2016 : le programme AlphaGo de DeepMind, alimenté par un réseau neuronal profond, bat Lee Sodol, le champion du monde de Go, dans un match de cinq parties. La victoire est significative compte tenu du nombre considérable de mouvements possibles à mesure que le jeu progresse (plus de 14,5 billions après seulement quatre mouvements !). Plus tard, Google a racheté DeepMind pour un montant estimé à 400 millions de dollars.
  • 2023 : Une augmentation des grands modèles de langage, ou LLM, tels que ChatGPT, entraîne un changement important dans les performances de l’IA et dans son potentiel à générer de la valeur pour l’entreprise.
    Avec ces nouvelles pratiques d’IA générative, les modèles de deep learning peuvent être pré-entraînés sur de grandes quantités de données brutes, non étiquetées.

 

Solutions connexes
Solutions d’intelligence artificielle (IA)

Mettez l’IA au service de votre entreprise grâce à l’expertise de pointe d’IBM en matière d’IA et à son portefeuille de solutions.

Découvrir les solutions d’IA
Services d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier.

Découvrir les services d’IA
L’IA pour la cyber-sécurité

L’IA révolutionne la cybersécurité en analysant d’énormes volumes de données sur les risques afin de réduire les temps de réponse et de renforcer la sécurité des opérations, même quand les ressources se font rares.

Découvrir AI for cybersecurity
Ressources Télécharger l’e-book sur l’intelligence artificielle

Découvrez de nouvelles informations sur les opportunités, les défis et les enseignements tirés de l’intégration de l’IA dans les entreprises.

Économisez jusqu’à 70 % avec notre abonnement de formation numérique

Accédez à notre catalogue complet de plus de 100 cours en ligne en achetant dès aujourd’hui un abonnement de formation numérique individuel ou multi-utilisateurs qui vous permettra d’étendre vos compétences sur certains de nos produits à un prix avantageux.

Magic Quadrant 2023 consacré aux plateformes d’IA conversationnelle d’entreprise

IBM a de nouveau été reconnu comme un leader dans le Magic Quadrant 2023 de Gartner consacré aux plateformes d’IA conversationnelle d’entreprise.

Passez à l’étape suivante

IBM a joué un rôle de premier plan dans le développement des technologies basées sur l’IA pour les entreprises et a ouvert la voie à l’avenir des systèmes de machine learning pour de nombreux secteurs. Découvrez comment IBM watson offre aux entreprises les outils d’IA dont elles ont besoin pour transformer leurs systèmes d’entreprise et leurs flux de travail, tout en améliorant de manière significative l’automatisation et l’efficacité. 

Découvrir les solutions d’IA