Le machine learning automatisé (AutoML) est la pratique qui consiste à automatiser le développement de bout en bout des modèles de machine learning (modèles de ML). L’AutoML permet aux non-experts de créer et d’implémenter des systèmes d’intelligence artificielle (IA) tout en rationalisant les workflows d’IA pour les data scientists et les développeurs.
Les outils d’AutoML simplifient le processus de création de modèles de ML. Les utilisateurs profitent d’une interface intuitive qui leur permet de créer, entraîner, valider et déployer des modèles d’IA générative et d’autres systèmes de deep learning. L’AutoML facilite la mise en œuvre de l’IA dans les secteurs réglementés grâce à ses résultats explicables et reproductibles.
Sans AutoML, chaque étape du workflow du machine learning (ML), préparation des données, prétraitement des données, ingénierie des caractéristiques et optimisation des hyperparamètres, doit être effectuée manuellement. L’AutoML démocratise le machine learning en le rendant accessible à tous ceux qui souhaitent en découvrir le potentiel. Parallèlement, les équipes MLOps expérimentées et les professionnels de la science des données peuvent automatiser les aspects courants des workflows de machine learning tout en se concentrant sur des tâches d’apprentissage plus exigeantes.
Les solutions d’AutoML créent plusieurs pipelines de machine learning pour gérer la tâche prévue, puis elles identifient le choix optimal. L’évaluation et la sélection des modèles sont automatisées dans le cadre du processus itératif visant à choisir le modèle le mieux adapté à la tâche à accomplir. Les outils de visualisation des données facilitent encore davantage le processus d’AutoML.
La différence entre l’AutoML et le machine learning traditionnel, c’est que l’AutoML automatise la quasi-totalité des étapes du pipeline de machine learning. Les pipelines traditionnels sont chronophages, gourmands en ressources et sujets aux erreurs humaines. En comparaison, les progrès de l’AutoML ont conduit à une plus grande efficacité et à de meilleurs résultats.
Un pipeline de machine learning classique comprend les étapes suivantes :
La préparation des données consiste à collecter des données brutes et à les intégrer à un jeu de données d’entraînement. Cette étape permet de s’assurer que les données d’apprentissage ne sont pas biaisées, et c’est sur elle que se base la réussite du modèle : des données précises permettent d’obtenir des prévisions et des informations précises. Alors que les entreprises relient leurs systèmes d’IA à des magasins de données propriétaires, par le biais de la génération augmentée de récupération (RAG), la préparation des données est une étape critique pour une mise en œuvre fiable de l’IA.
Les utilisateurs connectent la plateforme d’AutoML à la source des données d’apprentissage, idéalement un grand jeu de données prêtes à être utilisées pour l’entraînement. La phase de préparation des données intervient avant le déploiement de la solution d’AutoML.
La solution d’AutoML permet d’aller plus loin dans le prétraitement et le nettoyage des données. Un prétraitement plus minutieux des données permet d’améliorer les performances des modèles d’IA.
Lors de la création manuelle de modèles pour les tâches d’apprentissage supervisé et semi-supervisé, les données d’apprentissage doivent être étiquetées manuellement. Les caractéristiques et les résultats doivent être sélectionnés en fonction du cas d’utilisation prévu pour le modèle. Les solutions d’AutoML peuvent gérer l’ingénierie des caractéristiques pour le compte des utilisateurs afin de sélectionner les caractéristiques des données les plus susceptibles d’améliorer les performances du modèle.
Les caractéristiques des données ou variables sont les attributs d’un jeu de données que les modèles de machine learning utilisent pour prendre des décisions et faire des prédictions. Par exemple, pour un modèle de vision par ordinateur conçu pour identifier les espèces de plantes, les caractéristiques des données peuvent inclure la forme et la couleur des feuilles.
L’ingénierie des caractéristiques est le processus de transformation par lequel un data scientist extrait de nouvelles informations à partir des entrées et les prépare pour le machine learning. Un bon processus d’ingénierie et de sélection des caractéristiques peut faire la différence entre des performances de modèle acceptables et un modèle de haute qualité.
L’ingénierie automatisée des caractéristiques automatise le processus d’exploration de l’espace des caractéristiques, en remplissant les valeurs manquantes et en sélectionnant les caractéristiques à utiliser. La création manuelle d’une seule caractéristique peut prendre des heures, et le nombre de caractéristiques requises pour un score de précision minimal, sans parler d’une base de référence de précision de niveau production, peut atteindre des centaines. L’ingénierie automatisée des caractéristiques accélère cette phase de quelques jours à quelques minutes.
Outre ses avantages en termes d’efficacité, l’ingénierie automatisée des caractéristiques améliore également l’explicabilité de l'IA, un facteur important pour les secteurs régis par des réglementations strictes comme la santé ou la finance. Une plus grande clarté des caractéristiques rend les modèles plus intéressants et exploitables, car cela permet de découvrir de nouveaux KPI organisationnels.
Quel type de modèle est le mieux adapté au cas d’utilisation prévu ? Avec le machine learning traditionnel, la sélection des modèles nécessite une connaissance approfondie des types de modèles d’IA et de leurs capacités et limites respectives.
Les outils d’AutoML améliorent les processus traditionnels en créant et en entraînant automatiquement plusieurs modèles simultanément grâce à un éventail d’algorithmes et de configurations d’hyperparamètres. De nombreuses solutions d’AutoML combinent plusieurs modèles dans un processus connu sous le nom d’apprentissage ensembliste.
L’une des tâches les plus complexes, les plus sujettes aux erreurs et les plus chronophages du développement de réseaux neuronaux est la création de l’architecture neuronale. Les tâches avancées nécessitent des réseaux multicouches et des configurations d’hyperparamètres complexes.
La recherche d’architecture neuronale (NAS) automatise ce processus, accélérant la tâche et réduisant le risque d’erreur. Grâce à l’utilisation d’algorithmes avancés, la NAS identifie l’architecture optimale en fonction du contexte et du jeu de données. Les avancées récentes dans le domaine de la NAS se concentrent sur le développement de techniques plus efficaces pour réduire les coûts de calcul associés.
Les hyperparamètres sont les règles qui régissent le processus d’apprentissage du modèle. Contrairement aux paramètres internes qu’un modèle met à jour pendant l’entraînement, les hyperparamètres sont externes au modèle et sont configurés par les data scientists. La structure des réseaux neuronaux est également définie par les hyperparamètres.
Dans les contextes de modélisation de données à petite échelle, les hyperparamètres peuvent être configurés et optimisés manuellement par essais et erreurs. Mais avec les applications de deep learning, le nombre d’hyperparamètres augmente de manière exponentielle. L’optimisation automatisée des hyperparamètres permet aux équipes d’itérer et d’expérimenter pour découvrir les meilleurs hyperparamètres pour les caractéristiques et les modèles.
Le réglage des hyperparamètres est automatisé via des algorithmes avancés tels que l’optimisation bayésienne. Le réglage automatisé des hyperparamètres permet aux data scientists de se concentrer sur le pourquoi de la création de modèles plutôt que sur le comment pendant le processus de machine learning. Les équipes chargées des analyses peuvent alors se concentrer sur l’optimisation des modèles pour des cas d’utilisation spécifiques, par exemple pour réduire le nombre de faux négatifs lors des tests médicaux.
Les data scientists doivent valider les progrès de l’algorithme de machine learning en cours d’entraînement. Après l’entraînement, le modèle est testé avec de nouvelles données afin d’en évaluer les performances avant son déploiement réel. Les performances du modèle sont évaluées à l’aide d’indicateurs tels qu’une matrice de confusion, le score F1, la courbe ROC et d’autres.
Une fois l’entraînement terminé, l’outil d’AutoML teste chaque modèle pour identifier celui qui fonctionne le mieux sur les jeux de données d’entraînement et de test, puis il sélectionne automatiquement le modèle le plus performant pour le déploiement.
La création d’un modèle n’est que la première étape du calendrier du produit. Les modèles terminés doivent être mis à la disposition des utilisateurs, leurs performances doivent être surveillées et ils doivent être entretenus au fil du temps afin d’en garantir la fiabilité et la précision. Sans automatisation, les équipes de développement doivent écrire des scripts et construire des systèmes pour intégrer le modèle à leurs opérations et le fournir à leur base d’utilisateurs.
De nombreuses solutions d’AutoML incluent des outils de déploiement qui permettent une intégration fluide dans le monde réel. Les modèles peuvent être déployés en tant que service accessible par le biais d’un site web, d’une application ou d’une connexion API. Les plateformes d’AutoML peuvent automatiser le déploiement de modèles dans des offres de produits préexistantes, gérer le dimensionnement, les mises à jour et les versions, et améliorer l’explicabilité grâce à la visualisation des données.
La diversité des outils d’AutoML permet d’appliquer cette technique à un large éventail de tâches de machine learning, notamment :
Classification
Régression
Vision par ordinateur
Traitement automatique du langage naturel
La classification est la tâche de machine learning qui consiste à classer les entrées de données dans des catégories dédiées. Les modèles prédictifs utilisent les caractéristiques des données d’entrée pour prédire les étiquettes correctes, ou sorties. Les systèmes d’AutoML peuvent créer et tester un ensemble d’algorithmes, tels que des forêts d’arbres décisionnels et des machines à vecteurs de support (SVM), pour traiter les données tabulaires.
Les outils d’AutoML détectent automatiquement les schémas dans les jeux de données étiquetées et peuvent concevoir des modèles pour les tâches de classification courantes telles que la détection des fraudes et le filtrage des spams dans les e-mails.
Dans le machine learning, la régression consiste à utiliser des données historiques pour prédire des valeurs futures. La régression linéaire permet de prédire la valeur d’une variable dépendante en fonction d’une ou de plusieurs variables indépendantes, par exemple, avec une analyse des risques ou des prévisions de marché. La régression logistique prédit la probabilité d’un événement futur, comme la probabilité qu’un patient contracte une maladie, par opposition à une valeur discrète.
L’AutoML rationalise l’établissement des relations entre les variables d’entrée et les variables cibles, notamment pour les tâches multivariées complexes.
La vision par ordinateur consiste à utiliser des ordinateurs pour traiter des données visuelles, telles que des images et des vidéos. Les systèmes d’AutoML peuvent générer des modèles destinés aux tâches de classification basées sur la vision, notamment la détection d’objets, la classification des images et la reconnaissance optique de caractères intelligente. Les cas d’utilisation peuvent couvrir la modération et le filtrage du contenu, le balisage des images et d’autres tâches connexes.
Les systèmes d’AutoML peuvent également affiner les modèles pour une utilisation dans des contextes de vision par ordinateur plus avancés, tels que les automobiles autonomes.
Le traitement automatique du langage naturel (NLP) permet aux systèmes d’IA d’interpréter les entrées textuelles, telles que les prompts utilisateur et les documents juridiques. La création de chatbots, la classification de texte multiclasse et multi-étiquette, l’analyse des sentiments des clients, la reconnaissance d'entités nommées et la traduction sont autant d’exemples de tâches NLP complexes qui peuvent être facilement gérées avec l’AutoML.
Avec l’AutoML, les data scientists peuvent créer des modèles personnalisés qui sont automatiquement optimisés pour d’excellentes performances dans les cas d’utilisation prévus. Sinon, pour la création manuelle de modèles NLP, les data scientists doivent soit commencer à partir de zéro, soit baser leurs modèles sur des modèles précédents qui pourraient ne pas être aussi performants qu’un modèle sur mesure généré automatiquement.
Si l’AutoML apporte de nombreux avantages aux développeurs d’IA, il ne remplace pas entièrement les connaissances, l’expérience, les compétences et la créativité humaines. Voici les limites de l’AutoML :
Coûts élevés : plus la tâche est exigeante, plus le modèle correspondant doit être avancé. Les coûts de l’AutoML peuvent rapidement devenir incontrôlables lorsque cette technique est appliquée à la création de modèles complexes de grande taille.
Manque d’interprétabilité : les modèles générés via AutoML peuvent parfois tomber dans le piège de « l’IA en boîte noire », où le fonctionnement interne du modèle est obtus. Les développeurs humains peuvent créer des modèles conçus conformément aux principes de l’IA explicable, mais les solutions d’AutoML ne garantissent pas le respect de ces principes.
Risque de surajustement : le surajustement (quand un modèle entraîné se rapproche trop de ses données d’apprentissage et qu’il ne parvient pas à appliquer ce qu’il a appris aux données du monde réel), peut être atténué grâce à une intervention humaine et à une surveillance minutieuse du processus d’apprentissage.
Contrôle limité : les développeurs sacrifient le contrôle au profit de l’efficacité avec l’automatisation. Dans les cas spécialisés où des modèles hautement personnalisés sont nécessaires, les solutions d’AutoML peuvent avoir du mal à fournir un modèle approprié.
Fiabilité des données : un modèle d’IA est aussi solide que ses données d’apprentissage. Les modèles créés par l’homme et via AutoML ne peuvent pas fonctionner correctement si on ne leur fournit pas des données de haute qualité.
Les créateurs de modèles d’IA ont à leur disposition une large gamme d’outils d’AutoML. Notamment :
AutoKeras : un outil open source basé sur la bibliothèque Keras et TensorFlow.
Auto-PyTorch : une solution d’AutoML conçue pour automatiser les projets de machine learning créés avec PyTorch.
Google Cloud AutoML : la solution d’AutoML de Google est disponible sur sa plateforme cloud pour le machine learning.
Lale1 : une bibliothèque Python open source semi-automatisée qui s’intègre aux pipelines scikit-learn de manière fluide.
Microsoft Azure AutoML : les développeurs qui utilisent Microsoft Azure peuvent tirer parti de ses capacités d’AutoML.
Auto-Sklearn : une plateforme d’AutoML open source basée sur la bibliothèque scikit-learn.
1. Library for Semi-Automated Data Science, Hirzel et al, IBM/lale, 28 août 2024
IBM Granite est notre famille de modèles d’IA ouverts, performants et fiables, conçus pour les entreprises et optimisés pour dimensionner vos applications d’IA. Explorez les options de langage, de code, de séries temporelles et de garde-fous.
Nous avons interrogé 2 000 entreprises à propos de leurs initiatives d’IA pour découvrir ce qui fonctionne, ce qui ne fonctionne pas et comment progresser.
Apprenez comment intégrer l’IA générative, le machine learning et les modèles de fondation dans vos opérations métier pour améliorer les performances.
Découvrez comment choisir le modèle de fondation d’IA le mieux adapté à votre cas d’utilisation.
Le machine learning est une branche de l’IA et de l’informatique qui se concentre sur l’utilisation de données et d’algorithmes pour permettre à l’IA d’imiter la façon dont les humains apprennent.
Explorez les trois éléments clés d’une stratégie d’IA réussie : créer un avantage concurrentiel, étendre l’IA à l’ensemble de l’entreprise et faire progresser l’IA digne de confiance.
Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.
Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.
Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.