Qu’est-ce qu’un algorithme de machine learning ?
Essayez watsonx.ai gratuitement
Un réseau neuronal

Un algorithme de machine learning est un ensemble de règles ou de processus utilisés par un système d’IA pour effectuer des tâches, le plus souvent pour découvrir de nouvelles informations et modèles de données, ou prédire les valeurs de sortie à partir d’un ensemble de variables d’entrée. Les algorithmes permettent au machine learning (ML) d’apprendre.

Les analystes du secteur s’accordent sur l’importance du machine learning et de ses algorithmes sous-jacents. Selon Forrester, « Les progrès des algorithmes de machine learning apportent précision et profondeur à l’analyse des données marketing. Les responsables peuvent ainsi mieux comprendre comment certains éléments, plateforme, création, appel à l’action ou message, influent sur les performances marketing. »1 Selon Gartner, « Le machine learning est au cœur de nombreuses applications d’IA populaires, ce qui explique son attractivité sur le marché. »2

Le plus souvent, l’entraînement des algorithmes de ML sur un gros volume de données fournissent des réponses plus précises que sur une quantité moindre. À l’aide de méthodes statistiques, les algorithmes sont entraînés pour déterminer les classifications, obtenir des prédictions et découvrir des informations clés dans les projets d’exploration de données. Ces informations permettent d’améliorer les prises de décision pour stimuler les métriques de croissance.

Parmi les cas d’utilisation, les algorithmes de machine learning sont notamment employés dans l’analyse des données pour identifier les tendances et prévoir les problèmes avant qu’ils ne se produisent.3 Une IA plus avancée offre des options de support personnalisé, réduit les temps de réponse, fournit une reconnaissance vocale et, en fin de compte, améliore la satisfaction des clients. Les secteurs qui bénéficient particulièrement des algorithmes de machine learning pour la création de nouveaux contenus à partir de grandes quantités de données comprennent la gestion de la chaîne d’approvisionnement, les transports et la logistique, le commerce de détail et la fabrication.4 L’IA générative est largement adoptée dans ces secteurs pour sa capacité à automatiser les tâches, à améliorer l’efficacité et à fournir des informations précieuses, même pour les débutants.

Maintenant disponible : watsonx

Décuplez la puissance de l’IA dans votre entreprise grâce à la plateforme de données et d’IA nouvelle génération d’IBM.

Contenu connexe

Abonnez-vous à la newsletter IBM

Apprentissage en profondeur

Le deep learning est une application spécifique des fonctions avancées fournies par les algorithmes de machine learning. Il s’en distingue par la manière dont chaque algorithme apprend. Pour informer leur algorithme, les modèles de machine learning « profond » ou « deep learning » peuvent utiliser des ensembles de données étiquetés (ou apprentissage supervisé), mais les données étiquetées ne leur sont pas forcément nécessaires. Le deep learning peut ingérer des données non structurées sous leur forme brute (comme du texte ou des images) et déterminer automatiquement l’ensemble des caractéristiques qui distinguent différentes catégories de données les unes des autres. Cela permet d’éliminer une partie de l’intervention humaine nécessaire et d’utiliser des ensembles de données plus volumineux.

La façon la plus simple d’aborder l’intelligence artificielle, le machine learning, le deep learning et les réseaux neuronaux est de les considérer comme une série de systèmes d’IA du plus grand au plus petit, chacun englobant le suivant. L’intelligence artificielle représente le système global. Le machine learning est un sous-ensemble de l’IA. Le deep learning est un sous-domaine du machine learning, et les réseaux neuronaux sont l’épine dorsale des algorithmes de deep learning. C’est le nombre de couches de nœuds, ou profondeur, des réseaux neuronaux qui distingue un réseau neuronal unique d’un algorithme de deep learning, qui doit en avoir plus de trois.

Fonctionnement des algorithmes de machine learning

Selon un article de l’UC Berkeley, le système d’apprentissage d’un algorithme de machine learning se compose de trois parties principales.5

  1. Un processus décisionnel : en général, les algorithmes de machine learning s’utilisent pour établir une prédiction ou une classification. En fonction de certaines données d’entrée, étiquetées ou pas, l’algorithme produit une estimation d’un modèle tel que représenté par les données.

  2. Une fonction d’erreur : cette fonction permet d’évaluer la prédiction du modèle. S’il existe des exemples connus, la fonction d’erreur peut effectuer une comparaison pour évaluer la précision du modèle.

3.    Un processus d’optimisation : si le modèle peut être mieux adapté aux points de données de l’ensemble d’entraînement, les poids sont ajustés en conséquence pour réduire l’écart entre l’exemple connu et l’estimation du modèle. L’algorithme répète ce processus « d’évaluation et d’optimisation », et actualise les poids de manière autonome jusqu’à ce qu’un seuil de précision soit atteint.  

L’apprentissage supervisé, en particulier, utilise un ensemble d’entraînement configuré pour enseigner les modèles en vue d’obtenir les résultats souhaités. Cet ensemble de données d’entraînement comprend des entrées et des sorties correctes, ce qui permet au modèle d’apprendre et de s’améliorer au fil du temps. L’algorithme mesure sa précision par le biais de la fonction de perte, en s’ajustant jusqu’à ce que l’erreur soit suffisamment réduite.

Types d’algorithmes de machine learning

Il existe quatre types d’algorithmes de machine learning : supervisés, non supervisés, semi-supervisés et par renforcement. Selon vos exigences en termes de budget, de vitesse et de niveau de précision, chaque type et variante a ses avantages. Les algorithmes de machine learning avancés nécessitent plusieurs technologies, notamment le deep learning, les réseaux neuronaux et le traitement du langage naturel. Ils peuvent utiliser l’apprentissage supervisé et non supervisé.6 Les algorithmes suivants sont les plus couramment utilisés.

Algorithmes d’apprentissage supervisé

L’apprentissage supervisé permet de traiter deux types de problèmes lors de l’exploration de données : la classification et la régression.

  • La classification utilise un algorithme pour attribuer avec précision des données de test à des catégories particulières. Il reconnaît des entités spécifiques dans l’ensemble de données et tente de tirer des conclusions sur la façon dont ces entités doivent être étiquetées ou définies. Les algorithmes de classification courants sont les classificateurs linéaires, les machines à vecteurs de support (SVM), les arbres de décision, les K plus proches voisins et les forêts d’arbres décisionnels, qui sont décrits plus en détail ci-dessous.
  • La régression permet de comprendre la relation entre les variables dépendantes et indépendantes. Elle est couramment utilisée pour établir des projections, telles que le chiffre d’affaires d’une entreprise donnée. La régression linéaire, la régression logistique et la régression polynomiale sont des algorithmes de régression populaires.

Différents algorithmes et techniques de calcul sont employés dans les processus de machine learning supervisés, souvent calculés à l’aide de programmes comme Python. Les algorithmes d’apprentissage supervisés comprennent les suivants :

  • Optimisation de gradient ou optimisation adaptative7 : cette technique permet d’optimiser un algorithme de régression peu performant en le combinant avec des algorithmes plus faibles. Le but est d’en créer un plus fort afin de générer moins d’erreurs. L’optimisation combine la puissance de prévision de plusieurs estimateurs de base.
  • Réseaux neuronaux artificiels ou ANN : les réseaux neuronaux ou réseaux neuronaux simulés (SNN) sont un sous-ensemble des techniques de machine learning et sont au cœur des algorithmes de deep learning. L’algorithme apprenant reconnaît des modèles dans les données d’entrée à l’aide de blocs de construction appelés neurones, proches des neurones du cerveau humain, qui sont entraînés et modifiés au fil du temps (cf. « réseaux neuronaux » pour plus d’information).
  • Algorithmes d’arbre de décision : utilisés à la fois pour prédire des valeurs numériques (problèmes de régression) et classer les données en catégories, les arbres de décision utilisent une séquence ramifiée de décisions reliées qui peuvent être représentées par un diagramme arborescent. Les arbres de décision ont l’avantage d’être faciles à valider et à auditer, contrairement à la boîte noire des réseaux neuronaux.
  • Réduction de la dimensionnalité : lorsqu’un ensemble de données sélectionné comporte un nombre élevé de caractéristiques,7 il présente une dimensionnalité élevée. La réduction de la dimensionnalité permet ensuite de diminuer le nombre de caractéristiques, en ne conservant que les informations les plus significatives. Un exemple est l’analyse en composantes principales.
  • K plus proches voisins ou kNN : cet algorithme non paramétrique classifie les points de données en fonction de leur proximité et association avec d’autres données disponibles. Il suppose que des points de données similaires peuvent être trouvés à proximité les uns des autres. En conséquence, il cherche à calculer la distance entre les points de données, généralement au moyen de la distance euclidienne, puis attribue une catégorie en fonction de la moyenne ou de la catégorie la plus fréquente. 
  • Régression linéaire : la régression linéaire permet d’identifier la relation entre une variable dépendante et une ou plusieurs variables indépendantes. Elle est généralement utilisée pour faire des prédictions sur les résultats futurs. Lorsqu’il n’y a qu’une seule variable indépendante et une seule variable dépendante, on parle de régression linéaire simple.
  • Régression logistique : alors que la régression linéaire est utilisée lorsque les variables dépendantes sont continues, la régression logistique est choisie lorsque la variable dépendante est catégorique, c’est-à-dire que des résultats binaires sont présents, tels que « true » et « false » ou « yes » et « no ». Bien que les deux modèles de régression cherchent à comprendre les relations entre les entrées de données, la régression logistique est principalement utilisée pour résoudre les problèmes de classification binaire, par exemple l’identification du spam.
  • Réseaux neuronaux : principalement utilisés pour les algorithmes de deep learning, les réseaux neuronaux traitent les données d’entraînement en entrée en imitant l’interconnectivité du cerveau humain au moyen de couches de nœuds. Chaque nœud est composé d’entrées, de poids, d’un biais (seuil) et d’une sortie. Si cette valeur de sortie dépasse un seuil donné, elle « déclenche » ou active le nœud, transmettant les données à la couche suivante du réseau. Les réseaux neuronaux apprennent des ajustements basés sur la fonction de perte grâce au processus de descente de gradient. Lorsque la fonction coût est égale ou proche de zéro, vous pouvez être sûr de la précision du modèle.
  • Naïve Bayes : cette approche applique le principe de l’indépendance conditionnelle des classes du théorème de Bayes. Cela signifie que la présence d’une caractéristique n’affecte pas la présence d’une autre dans la probabilité d’un résultat donné, et que chaque prédicteur a un effet égal sur ce résultat. Il existe trois types de classificateurs Bayes naïfs : Naïve Bayes multinomial, Naïve Bayes de Bernoulli et Naïve Bayes gaussien. Cette technique est principalement utilisée dans les systèmes de classification de texte, d’identification du spam et de recommandations.
  • Forêt d’arbres décisionnels : cet algorithme de machine learning prédit une valeur ou une catégorie en combinant les résultats d’un certain nombre d’arbres de décision. La « forêt » fait référence à des arbres de décision non corrélés, qui sont assemblés pour réduire les écarts et permettre des prévisions plus précises.
  • Machines à vecteurs de support (SVM) : cet algorithme peut être utilisé à la fois pour la classification des données et la régression, mais plus généralement pour les problèmes de classification, en construisant un hyperplan où la distance entre deux catégories de points de données est maximale. Cet hyperplan est dénommé « limite de décision », séparant les catégories de points de données (comme les oranges par rapport aux pommes) de chaque côté du plan.
Algorithmes d’apprentissage non supervisé

Contrairement à l’apprentissage supervisé, l’apprentissage non supervisé utilise des données non étiquetées. À partir de ces données, l’algorithme découvre des modèles qui aident à résoudre les problèmes de regroupement (clustering) ou d’association. Ceci est particulièrement utile lorsque les spécialistes du domaine ne sont pas sûrs des propriétés communes dans un ensemble de données. Les algorithmes de clustering courants sont un mélange de modèles hiérarchiques, en k moyennes, gaussiens et de méthodes de réduction de la dimensionnalité comme PCA et t-SNE.

  • Clustering : ces algorithmes peuvent identifier des modèles dans les données afin de pouvoir les regrouper. Ils aident les data scientists à identifier les différences entre des éléments de données que les humains n’ont pas remarquées.
  • Clustering hiérarchique : cette méthode regroupe les données dans une arborescence de clusters.8 Le clustering hiérarchique commence par traiter chaque point de données comme un cluster distinct. Ensuite, ces étapes sont répétées plusieurs fois : 1) identification des deux clusters les plus proches, 2) fusion des deux clusters les plus comparables. Ces étapes se poursuivent jusqu’à ce que tous les clusters soient fusionnés.
  • Clustering en k moyenne : cette méthode identifie les groupes au sein des données sans étiquettes9 dans différents clusters en recherchant des groupes de données semblables les uns aux autres. L’expression « k moyennes » provient des centroïdes utilisés pour définir les clusters. Un point est attribué à un cluster particulier s’il est plus proche du centroïde de ce cluster qu’un autre centroïde.

Algorithmes d’apprentissage semi-supervisé

Dans ce cas, l’apprentissage intervient lorsque seule une partie des données d’entrée a été étiquetée, ce qui donne à l’algorithme une certaine « longueur d’avance ». Cette approche permet de combiner le meilleur des deux mondes :10 une précision améliorée associée au machine learning supervisé et la possibilité d’utiliser des données non étiquetées de manière rentable, comme dans le cas du machine learning non supervisé.

Algorithmes par renforcement

Dans ce cas, les algorithmes sont entraînés de la même manière que l’apprentissage humain, à l’aide de récompenses et de pénalités, qui sont mesurées et suivies par un agent d’apprentissage par renforcement.11 Celui-ci a une compréhension générale de la probabilité de réussir à faire monter le score ou à le faire descendre. Par essais et erreurs, l’agent apprend à appliquer des mesures qui conduisent aux résultats les plus favorables au fil du temps. L’apprentissage par renforcement est souvent utilisé12 dans la gestion des ressources, la robotique et les jeux vidéo.

Solutions connexes
Apprentissage en profondeur

Concevez des réseaux neuronaux complexes. Expérimentez à grande échelle pour déployer des modèles d’apprentissage optimisés dans IBM Watson Studio.

Découvrez le deep learning

Analyse prédictive

Analysez les données et élaborez des analyses et des modèles prédictifs de résultats futurs. Découvrez les risques et les opportunités pour votre entreprise.

Découvrez l’analyse prédictive

Créez des applications grâce au traitement automatique du langage naturel

Le NLP est une IA qui parle le langage de votre entreprise. Créez des solutions qui génèrent 383 % de ROI en trois ans grâce à IBM Watson Discovery.

Découvrez comment créer des applications avec le NLP
Ressources Apprentissage pratique gratuit pour les technologies d’IA générative

Découvrez les concepts fondamentaux de l’IA et de l’IA générative, notamment le prompt engineering, les grands modèles de langage et les meilleurs projets open source.

Magic Quadrant 2023 consacré aux plateformes d’IA conversationnelle d’entreprise

IBM a de nouveau été reconnu comme un leader dans le Magic Quadrant 2023 de Gartner consacré aux plateformes d’IA conversationnelle d’entreprise.

Gartner Magic Quadrant for Data Science and Machine Learning Platforms

Découvrez les outils que les entreprises utilisent pour exécuter et gérer efficacement les modèles d’IA, et équiper leurs data scientists des technologies qui les aident à optimiser leur prise de décision basée sur les données.

Le machine learning pour les nuls

Découvrez comment le machine learning vous permet d’apprendre en permanence des données et d’anticiper l’avenir.

Comment développer une IA responsable à grande échelle

Quatre stratégies pour faire évoluer l’IA à partir d’un socle de données solide.

L’IA au sein de l’entreprise, 2021 : libérer les opportunités grâce aux données

La technologie de l’IA a rapidement évolué au cours des deux dernières décennies. Découvrez comment les entreprises d’aujourd’hui mettent en œuvre l’IA.

Take the next step

Build an AI strategy for your business on one collaborative AI and data platform—IBM watsonx. Train, validate, tune and deploy AI models to help you scale and accelerate the impact of AI with trusted data across your business.

Explore watsonx Book a live demo