Les technologies d’intelligence artificielle, ou IA, permettent aux ordinateurs et aux machines de simuler l’intelligence humaine et ses capacités de résolution des problèmes.
Seule ou combinée à d’autres technologies (par exemple, des capteurs, la robotique, la géolocalisation), l’IA est capable d’effectuer des tâches qui nécessiteraient autrement une intelligence ou une intervention humaine. Les assistants numériques, le guidage GPS, les véhicules autonomes et les outils d’IA générative (comme Chat GPT d’Open AI) ne sont que quelques exemples de l’IA dans l’actualité et dans notre vie quotidiennes.
En tant que domaine informatique, l’intelligence artificielle englobe le machine learning et l’apprentissage profond (avec lesquels elle est souvent mentionnée). Ces disciplines impliquent le développement d’algorithmes d’IA, calqués sur les processus décisionnels du cerveau humain, qui peuvent « apprendre » à partir des données disponibles et établir des classifications ou des prévisions de plus en plus précises au fil du temps.
L’intelligence artificielle a fait l’objet de nombreux cycles d’engouement, mais même pour les sceptiques, la sortie de ChatGPT semble marquer un tournant. La dernière fois que l’IA générative a pris une telle ampleur, des progrès ont été enregistrés dans le domaine de la vision par ordinateur, mais aujourd’hui, c’est le traitement automatique du langage naturel (NLP) qui a fait un bond en avant. Aujourd’hui, l’IA générative peut apprendre et synthétiser non seulement le langage, mais aussi d’autres types de données, notamment les images, les vidéos, le code logiciel et même les structures moléculaires.
Les applications de l’IA se développent de jour en jour. Mais à mesure que le battage médiatique autour de l’utilisation des outils de l’IA dans les entreprises prend de l’ampleur, les discussions sur l’éthique de l’IA et l’IA responsable revêtent une importance cruciale. Pour en savoir plus sur la position d’IBM sur ces questions, veuillez lire l’article Renforcer la confiance dans l’IA.
Découvrez les obstacles à l’adoption de l’IA, en particulier le manque de solutions de gouvernance de l’IA et de gestion des risques.
Obtenir le guide sur les modèles de fondation
L’IA faible, également appelée IA étroite (Narrow AI) ou Intelligence artificielle étroite (ANI, Artificial Narrow Intelligence), est une IA entraînée et ciblée pour effectuer des tâches spécifiques. Elle est à l’origine de la plus grande partie de l’IA qui nous entoure aujourd’hui. Le terme « étroite » conviendrait peut-être mieux à ce type d’IA, car elle est tout sauf faible. En effet, elle rend possible des applications très robustes telles que Siri d’Apple, Alexa d’Amazon, watsonx™ d’IBM ou encore les véhicules autonomes.
L’IA forte se compose de l’intelligence artificielle générale (AGI) et de la superintelligence artificielle (ASI). L’AGI, ou IA générale, est une forme théorique d’IA dans laquelle une machine aurait une intelligence égale à celle des humains. Elle serait consciente d’elle-même et aurait la capacité de résoudre des problèmes, d’apprendre et de planifier l’avenir. L’ASI, également appelée superintelligence, dépasserait l’intelligence et les capacités du cerveau humain. Bien que l’IA forte soit encore entièrement théorique et qu’aucun exemple pratique ne soit utilisé aujourd’hui, cela ne signifie pas que les chercheurs en IA ne sont pas en train d’explorer son développement. En attendant, les meilleurs exemples d’IA forte se trouvent peut-être dans la science-fiction, comme HAL, l’assistant informatique surhumain et malhonnête dans 2001 : L’Odyssée de l’espace.
Le machine learning et l’apprentissage profond sont des sous-disciplines de l’IA et l’apprentissage profond est une sous-discipline du machine learning.
Les algorithmes de machine learning et d’apprentissage profond utilisent tous deux les réseaux neuronaux pour « apprendre » à partir d’énormes quantités de données. Ces réseaux neuronaux sont des structures programmatiques calquées sur les processus décisionnels du cerveau humain. Ils sont constitués de couches de nœuds interconnectés qui extraient les fonctionnalités des données et font des prédictions sur ce que représentent les données.
Le machine learning et l’apprentissage profond diffèrent par les types de réseaux neuronaux qu’ils utilisent et par la quantité d’intervention humaine impliquée. Les algorithmes classiques de machine learning utilisent des réseaux neuronaux avec une couche d’entrée, une ou deux couches « cachées » et une couche de sortie. En général, ces algorithmes sont limités à l’apprentissage supervisé : les données doivent être structurées ou étiquetées par des experts humains pour permettre à l’algorithme d’extraire des fonctionnalités des données.
Les algorithmes d’apprentissage profond utilisent des réseaux neuronaux profonds, c’est-à-dire des réseaux composés d’une couche d’entrée, de trois couches cachées ou plus (mais généralement de centaines) et d’une mise en page de sortie. Ces couches multiples permettent un apprentissage non supervisé : elles automatisent l’extraction de caractéristiques à partir de vastes ensembles de données non étiquetées et non structurées. Parce qu’il ne nécessite pas d’intervention humaine, l’apprentissage profond permet essentiellement le machine learning à l’échelle.
L’IA générative fait référence aux modèles de deep learning qui peuvent prendre des données brutes (comme l’intégralité de Wikipédia ou l’ensemble des œuvres de Rembrandt) et « apprendre » à générer des résultats statistiquement probables lorsqu’on leur demande de le faire. À un niveau élevé, les modèles génératifs codent une représentation simplifiée de leurs données d’apprentissage et s’en servent pour créer un travail similaire, sans être identique, aux données d’origine.
Les modèles génératifs sont utilisés depuis des années dans les statistiques pour analyser les données numériques. L’essor du deep learning a toutefois permis de les étendre aux images, à la parole et à d’autres types de données complexes. Les autoencodeurs variationnels (VAE), introduits en 2013, font partie de la première catégorie de modèles d’IA à avoir réussi ce croisement. Les VAE ont été les premiers modèles de deep learning à être largement utilisés pour générer des images et des discours réalistes.
« Les VAE ont ouvert la voie à une modélisation générative approfondie en facilitant la mise à l’échelle des modèles », explique Akash Srivastava, expert en IA générative au MIT-IBM Watson AI Lab. Une grande partie de ce que nous considérons aujourd’hui comme l’IA générative a commencé ici. »
Les premiers exemples de modèles, notamment GPT-3, BERT ou DALL-E 2, ont montré ce qui est possible. Le futur, ce sont des modèles formés sur un large ensemble de données non étiquetées qui peuvent être utilisées pour différentes tâches, avec un minimum d’ajustements. Les systèmes qui exécutent des tâches spécifiques dans un seul domaine cèdent la place à de vastes systèmes d’IA qui apprennent de manière plus générale et fonctionnent dans plusieurs domaines et problèmes. Les modèles de fondation, formés sur de vastes jeux de données non étiquetées et adaptés à toute une série de cas d’utilisation, sont à l’origine de cette évolution.
Quant à l’avenir de l’IA, en ce qui concerne l’IA générative, on prévoit que les modèles de fondation accéléreront considérablement l’adoption de l’IA au sein des entreprises. La réduction des exigences en matière d’étiquetage facilitera grandement la tâche des entreprises, et l’automatisation hautement précise et efficace optimisée par l’IA qu’ils permettent signifiera que de plus en plus d’entreprises pourront déployer l’IA dans un plus grand nombre de situations critiques. Pour IBM, l’espoir est que la puissance de calcul des modèles de fondation puisse finalement être apportée à chaque entreprise dans un environnement cloud-hybride sans friction.
Découvrir les modèles de base dans watsonx.ai
Il existe aujourd’hui de nombreux cas d’utilisation des systèmes d’IA dans le monde réel. Voici quelques exemples les plus courants :
Également connue sous le nom de reconnaissance automatique de la parole (ASR), de reconnaissance de la parole par ordinateur ou de speech-to-text, la reconnaissance vocale utilise la PNL pour traiter la parole humaine dans un format écrit. De nombreux appareils mobiles intègrent la reconnaissance vocale dans leurs systèmes pour effectuer des recherches vocales (Siri, par exemple) ou offrir une plus grande accessibilité pour l’envoi de SMS en anglais ou dans de nombreuses langues largement utilisées. Découvrez comment Don Johnston a utilisé IBM Watson Text to Speech pour améliorer l’accessibilité en classe grâce à notre étude de cas.
Les agents conversationnels et les chatbots en ligne remplacent les agents humains tout au long du parcours client. Ils répondent aux questions fréquemment posées (FAQ) sur des sujets tels que l’expédition, ou fournissent des conseils personnalisés, en faisant de la vente croisée de produits ou en suggérant des tailles pour les utilisateurs, ce qui transforme notre façon d’envisager l’engagement client sur les sites web et les plateformes de réseaux sociaux. Parmi les exemples, on trouve les bots de messagerie sur les sites de commerce électronique avec des agents conversationnels, les applications de messagerie, telles que Slack et Facebook Messenger, et les tâches habituellement effectuées par les assistants virtuels et les assistants vocaux. Découvrez comment Autodesk Inc. a utilisé IBM Watsonx Assistant pour accélérer les temps de réponse des clients de 99 % grâce à notre étude de cas.
Cette technologie d’IA permet aux ordinateurs et aux systèmes d’extraire des informations significatives des images numériques, des vidéos et d’autres entrées visuelles et de prendre des mesures en fonction de ces entrées. Cette capacité à fournir des recommandations la distingue des tâches de reconnaissance d’images. Optimisée par les réseaux neuronaux convolutifs, la vision par ordinateur trouve des applications dans le marquage des photos dans les réseaux sociaux, l’imagerie radiologique dans le secteur de la santé et les voitures autonomes dans le secteur automobile. Découvrez comment ProMare a utilisé IBM Maximo pour donner une nouvelle orientation à la recherche océanique dans notre étude de cas.
La robotique adaptative agit sur les informations des appareils de l’Internet des objets (IdO) et sur les données structurées et non structurées pour prendre des décisions autonomes. Les outils de NLP peuvent comprendre la parole humaine et réagir à ce qu’on leur dit. L’analytique prédictive s’applique à la réactivité à la demande, à l’optimisation des stocks et des réseaux, à la maintenance préventive et à la fabrication numérique. Les algorithmes de recherche et de reconnaissance de modèles, qui ne sont plus seulement prédictifs, mais hiérarchiques, analysent les données en temps réel, aidant les chaînes d’approvisionnement à réagir à l’intelligence augmentée générée par les machines, tout en offrant une visibilité et une transparence instantanées. Découvrez comment Hendrickson a utilisé IBM Sterling pour alimenter les transactions en temps réel grâce à notre étude de cas.
Les modèles météorologiques sur lesquels les radiodiffuseurs s’appuient pour établir des prévisions précises sont constitués d’algorithmes complexes exécutés sur des superordinateurs. Les techniques de machine learning améliorent ces modèles en les rendant plus applicables et plus précis. Découvrez comment Emnotion a utilisé IBM Cloud pour permettre aux entreprises sensibles aux conditions météorologiques de prendre des décisions plus proactives et fondées sur des données grâce à notre étude de cas.
Les modèles IA peuvent passer au peigne fin de grandes quantités de données historiques et découvrir des points de données atypiques au sein d’un jeu de données. La détection de ces anomalies peut révéler des équipements défectueux, des erreurs humaines ou des failles dans les mécanismes de sécurité. Découvrez comment Netox a utilisé IBM QRadar pour protéger les entreprises numériques contre les cybermenaces grâce à notre étude de cas.
L’idée d’une « machine qui pense » remonte à la Grèce antique. Mais depuis l’avènement de l’informatique (et par rapport à certains des sujets abordés dans cet article), les événements et les étapes importants de l’évolution de l’intelligence artificielle sont :
Mettez l’IA au service de votre entreprise grâce à l’expertise de pointe d’IBM en matière d’IA et à son portefeuille de solutions.
Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.
L’IA révolutionne la cybersécurité en analysant d’énormes volumes de données sur les risques afin de réduire les temps de réponse et de renforcer la sécurité des opérations, même quand les ressources se font rares.
Apprenez à utiliser le cadre des exigences de sélection de modèle pour sélectionner le modèle de fondation adapté aux besoins de votre entreprise.
Accédez à notre catalogue complet de plus de 100 cours en ligne en achetant dès aujourd’hui un abonnement de formation numérique individuel ou multi-utilisateurs qui vous permettra d’étendre vos compétences sur certains de nos produits à un prix avantageux.
IBM watsonx Assistant reconnu Customers’ Choice dans le rapport Gartner Peer Insights Voice of the Customer 2023 consacré aux plateformes d’IA conversationnelle pour les entreprises
Découvrez comment le machine learning peut prédire la demande et réduire les coûts.