Alors qu’un certain nombre de définitions de l’intelligence artificielle (IA) sont apparues au cours des dernières décennies, John McCarthy en propose une dans cet article paru en 2004 (lien externe à ibm.com) : « Il s’agit de la science et de l’ingénierie qui consistent à créer des machines intelligentes, notamment des programmes d’ordinateur intelligents. Elle s’apparente à l’utilisation d’ordinateurs pour comprendre l’intelligence humaine, mais l’IA ne doit pas se limiter aux méthodes biologiquement observables. »
Toutefois, des décennies avant que cette définition ne soit donnée, la naissance de la conversation sur l’intelligence artificielle a été marquée par l’ouvrage fondateur d’Alan Turing, « Computing Machinery and Intelligence » (lien externe à ibm.com), qui a été publié en 1950. Dans cet article, M. Turing, souvent considéré comme le « père de l’informatique », pose la question suivante : « Les machines peuvent-elles penser ? ». Il propose ensuite un test, désormais connu sous le célèbre nom de « test de Turing », dans lequel un interrogateur humain tente de différencier la réponse textuelle d’un ordinateur de celle d’un être humain. Bien que ce test ait fait l’objet d’un examen approfondi depuis sa publication, il reste un aspect important de l’histoire de l’IA ainsi qu’un concept permanent de la philosophie puisqu’il utilise des idées autour de la linguistique.
Stuart Russell et Peter Norvig ont ensuite publié Intelligence artificielle : une approche moderne (lien externe à ibm.com), devenu l’un des principaux manuels d’étude de l’intelligence artificielle. Ils y explorent quatre objectifs ou définitions potentiels de l’IA, qui différencient les systèmes informatiques sur la base de la rationalité et de la pensée par rapport à l’action :
Approche humaine :
Approche idéale :
La définition d’Alan Turing entrerait dans la catégorie des « systèmes qui agissent comme des humains ».
Dans sa forme la plus simple, l’intelligence artificielle est un domaine qui associe l’informatique et des ensembles de données fiables pour faciliter la résolution de problèmes. Elle comprend également les sous-domaines du machine learning et du deep learning, qui sont souvent utilisés en conjonction avec l’intelligence artificielle. Ces disciplines sont constituées d’algorithmes d’IA qui cherchent à créer des systèmes experts qui font des prédictions ou des classifications basées sur des données entrantes.
Au fil des ans, l’intelligence artificielle a fait l’objet de nombreux cycles d’engouement, mais même pour les sceptiques, la sortie de ChatGPT d’OpenAI semble marquer un tournant. La dernière fois que l’IA générative a pris une telle ampleur, des progrès ont été enregistrés dans le domaine de la vision par ordinateur, mais aujourd’hui, c’est le traitement du langage naturel qui a fait un bond en avant. Et il ne s’agit pas uniquement du langage : les modèles génératifs peuvent également apprendre la grammaire des codes logiciels, des molécules, des images naturelles et de toute une série d’autres types de données.
Des cas d’utilisation de cette technologie se multiplient chaque jour, et nous commençons à peine à en explorer les possibilités. Mais à mesure que le battage médiatique autour de l’utilisation de l’IA dans les entreprises prend de l’ampleur, les discussions sur l’éthique revêtent une importance cruciale. Pour en savoir plus sur la position d’IBM dans le débat sur l’éthique de l’IA, cliquez ici.
Décuplez la puissance de l’IA dans votre entreprise grâce à la plateforme de données et d’IA nouvelle génération d’IBM.
IBM watsonx Orchestrate
IBM watsonx Assistant
Découvrir l’apprentissage de l’IA générative pour les développeurs
L’IA faible, également appelée IA étroite (Narrow AI) ou Intelligence artificielle étroite (ANI, Artificial Narrow Intelligence), est une IA entraînée et ciblée pour effectuer des tâches spécifiques. Elle est à l’origine de la plus grande partie de l’IA qui nous entoure aujourd’hui. Le terme « étroite » conviendrait peut-être mieux à ce type d’IA car elle est tout sauf faible. En effet, elle rend possible des applications très robustes telles que Siri d’Apple, Alexa d’Amazon, watsonx d’IBM ou encore les véhicules autonomes.
L’IA forte se compose de l’intelligence artificielle générale (AGI) et de la superintelligence artificielle (ASI). L’intelligence artificielle générale (AGI), ou IA générale, est une forme théorique d’IA grâce à laquelle une machine aurait une intelligence équivalente à celle de l’homme. Elle serait dotée d’une conscience autonome capable de résoudre des problèmes, d’apprendre et de planifier l’avenir. La superintelligence artificielle (ASI), également appelée superintelligence, surpasserait l’intelligence et les capacités du cerveau humain. Bien que l’IA forte soit encore entièrement théorique et qu’aucun exemple pratique ne soit utilisé aujourd’hui, cela ne signifie pas que les chercheurs en IA ne sont pas en train d’explorer son développement. En attendant, les meilleurs exemples d’IA forte se trouvent peut-être dans la science-fiction, comme HAL, l’assistant informatique surhumain et malhonnête dans 2001 : L’Odyssée de l’espace.
Le deep learning et le machine learning ayant tendance à être utilisés de manière interchangeable, il est bon de noter les nuances existant entre les deux. Comme indiqué plus haut, le deep learning et le machine learning sont tous deux des sous-domaines de l’intelligence artificielle, et le deep learning est en fait un sous-domaine du machine learning.
Le deep learning est en fait composé de réseaux neuronaux. Le terme « deep » (profond) fait référence à un réseau neuronal composé de plus de trois couches (qui comprendraient les entrées et les sorties) qui peut être considéré comme un algorithme du deep learning. Le diagramme ci-dessous illustre bien cette notion.
La différence entre le deep learning et le machine learning réside dans la manière dont chaque algorithme apprend. Le deep learning automatise une grande partie de l’extraction des caractéristiques, éliminant ainsi une partie de l’intervention humaine manuelle nécessaire et permettant l’utilisation d’ensembles de données plus importants. On peut considérer le deep learning comme un « machine learning évolutif », comme l’a noté Lex Fridman dans la même conférence du MIT que celle citée plus haut. Le machine learning classique, ou « non profond », nécessite davantage l’intervention humaine pour l’apprentissage. Les experts humains déterminent la hiérarchie des caractéristiques pour comprendre les différences entre les entrées de données, ce qui nécessite généralement des données plus structurées pour l’apprentissage.
Le machine learning « profond » (ou deep learning) peut s’appuyer sur des ensembles de données étiquetés, également connus sous le nom d’apprentissage supervisé, pour informer son algorithme, mais il n’a pas nécessairement besoin de cet ensemble de données. Il peut ingérer des données non structurées sous leur forme brute (par exemple texte, images), et peut déterminer automatiquement la hiérarchie des caractéristiques qui distinguent différentes catégories de données les unes des autres. Contrairement au machine learning, il ne nécessite aucune intervention humaine pour traiter les données, ce qui nous permet de faire évoluer le machine learning de manière plus intéressante.
L’IA générative fait référence aux modèles de deep learning qui peuvent prendre des données brutes (comme l’intégralité de Wikipédia ou l’ensemble des œuvres de Rembrandt) et « apprendre » à générer des résultats statistiquement probables lorsqu’on leur demande de le faire. À un niveau élevé, les modèles génératifs codent une représentation simplifiée de leurs données d’apprentissage et s’en servent pour créer un travail similaire, sans être identique, aux données d’origine.
Les modèles génératifs sont utilisés depuis des années dans les statistiques pour analyser les données numériques. L’essor du deep learning a toutefois permis de les étendre aux images, à la parole et à d’autres types de données complexes. Les autoencodeurs variationnels (VAE), introduits en 2013, font partie de la première catégorie de modèles à avoir réussi ce croisement. Les VAE ont été les premiers modèles de deep learning à être largement utilisés pour générer des images et des discours réalistes.
« Les VAE ont ouvert la voie à la modélisation générative profonde en facilitant la mise à l’échelle des modèles, explique Akash Srivastava, expert en IA générative au MIT-IBM Watson AI Lab. Une grande partie de ce que nous considérons aujourd’hui comme l’IA générative a commencé ici. »
Les premiers exemples de modèles, comme GPT-3, BERT ou DALL-E 2, ont montré ce qui est possible. Le futur, ce sont des modèles formés sur un large ensemble de données non étiquetées qui peuvent être utilisées pour différentes tâches, avec un minimum d’ajustements. Les systèmes qui exécutent des tâches spécifiques dans un seul domaine cèdent la place à une IA plus large qui apprend de manière plus générale et fonctionne dans tous les domaines et pour toutes sortes de problèmes. Les modèles de fondation, formés sur de vastes ensembles de données non étiquetées et adaptés à toute une série de cas d’utilisation, sont à l’origine de cette évolution.
En ce qui concerne l’IA générative, on prévoit que les modèles de fondation accéléreront considérablement l’adoption de l’IA au sein des entreprises. La réduction des exigences en matière d’étiquetage facilitera grandement la tâche des entreprises, et l’automatisation hautement précise et efficace optimisée par l’IA qu’ils permettent signifiera que de plus en plus d’entreprises pourront déployer l’IA dans un plus grand nombre de situations critiques. Pour IBM, l’espoir est que la puissance des modèles de fondation puisse finalement être apportée à chaque entreprise dans un environnement cloud-hybride sans friction.
Il existe aujourd’hui de nombreux cas d’utilisation des systèmes d’IA dans le monde réel. Voici quelques exemples les plus courants :
L’idée d’une « machine qui pense » remonte à la Grèce antique. Mais depuis l’avènement de l’informatique (et par rapport à certains des sujets abordés dans cet article), les événements et les étapes importants de l’évolution de l’intelligence artificielle sont :
Mettez l’IA au service de votre entreprise grâce à l’expertise de pointe d’IBM en matière d’IA et à son portefeuille de solutions.
Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier.
L’IA révolutionne la cybersécurité en analysant d’énormes volumes de données sur les risques afin de réduire les temps de réponse et de renforcer la sécurité des opérations, même quand les ressources se font rares.
Découvrez de nouvelles informations sur les opportunités, les défis et les enseignements tirés de l’intégration de l’IA dans les entreprises.
Accédez à notre catalogue complet de plus de 100 cours en ligne en achetant dès aujourd’hui un abonnement de formation numérique individuel ou multi-utilisateurs qui vous permettra d’étendre vos compétences sur certains de nos produits à un prix avantageux.
IBM a de nouveau été reconnu comme un leader dans le Magic Quadrant 2023 de Gartner consacré aux plateformes d’IA conversationnelle d’entreprise.