Qu’est-ce que l’extraction de caractéristiques ?

Auteurs

Vanna Winland

AI Advocate & Technology Writer

Qu’est-ce que l’extraction de caractéristiques ?

L’extraction de caractéristiques est une technique qui réduit la dimensionnalité ou la complexité des données pour améliorer la performance et l’efficacité des algorithmes de machine learning (ML). Ce processus facilite les tâches de ML et améliore l’analyse des données en simplifiant le jeu de données pour n’inclure que ses variables ou ses attributs significatifs. 

La performance d’un modèle d’intelligence artificielle (IA) dépend de la qualité de ses données d’apprentissage. Les modèles de machine learning passent par un prétraitement afin de garantir que le format des données est adapté pour un entraînement et une performance efficaces des modèles.

L’extraction de caractéristiques joue un rôle essentiel dans le workflow de prétraitement. Au cours du processus d’extraction, les données non structurées sont converties dans un format plus structuré et utilisable afin d’améliorer la qualité des données et l’interprétabilité des modèles. L’extraction de caractéristiques est un sous-ensemble de l’ingénierie des caractéristiques, le processus plus large de création, de modification et de sélection des caractéristiques dans les données brutes pour optimiser les performances des modèles.  

Depuis les premières recherches sur la reconnaissance de modèles, de nouvelles méthodes et techniques ont été étudiées pour utiliser une méthode heuristique afin d’extraire les caractéristiques les plus pertinentes d’un jeu de données à l’aide de l’IA.1 Au cours des recherches, les auto-encodeurs étaient traditionnellement utilisés pour la réduction de la dimensionnalité pour l’apprentissage des caractéristiques.2

Il est difficile de travailler avec des données lorsque le nombre de fonctionnalités, ou covariables, dépasse le nombre de points de données indépendants. Ce type de données est considéré comme une donnée de grande dimension.3 L’extraction de caractéristiques peut être considérée comme une technique de réduction de la dimensionnalité.4

Cet aspect est essentiel lorsque vous travaillez avec des jeux de données volumineux ou des jeux de données provenant de plusieurs modalités. Plus le modèle doit gérer de caractéristiques, moins il est compétent et performant.5 Les tâches courantes qui reposent sur une extraction efficace des caractéristiques comprennent le traitement des images, le traitement automatique du langage naturel (NLP) et le traitement du signal. 

Les dernières tendances en matière d’IA, vues par des experts

Obtenez des informations sur les actualités les plus importantes et les plus intrigantes en matière d’intelligence artificielle. Abonnez-vous à notre newsletter hebdomadaire Think. Lire la Déclaration de confidentialité d’IBM.

Merci ! Vous êtes abonné(e).

Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.

Comment fonctionne l’extraction de caractéristiques ?

La réduction de la dimensionnalité est une technique de science des données utilisée dans l’étape de prétraitement du machine learning.6 Au cours de ce processus, les données non pertinentes et redondantes sont supprimées tout en conservant les informations pertinentes du jeu de données d’origine.

Les caractéristiques peuvent être considérées comme les attributs d’un objet de données. Par exemple, dans un jeu de données sur des animaux, vous pouvez vous attendre à certaines caractéristiques numériques (âge, taille, poids) et caractéristiques catégorielles (couleur, espèces, race). L’extraction de caractéristiques fait partie de l’architecture de réseau neuronal du modèle, telle qu’un réseau neuronal convolutif (CNN).

Tout d’abord, le modèle prend en compte les données d’entrée, puis l’extracteur de caractéristiques transforme les données en une représentation numérique qui peut être utilisée pour calculer les méthodes de réduction de la dimensionnalité pour l’extraction de caractéristiques. Ces représentations sont stockées dans des vecteurs de caractéristiques pour que le modèle exécute des algorithmes de réduction des données. 

Après l’extraction, il est parfois nécessaire de normaliser les données à l’aide de la normalisation des caractéristiques, en particulier lorsque vous utilisez certains algorithmes qui sont sensibles à la magnitude et à l’échelle des variables (algorithmes de descente basés sur les gradients, clustering k-means).

Différentes méthodes peuvent être suivies pour obtenir certains résultats en fonction des tâches. Toutes les méthodes visent à simplifier les données tout en préservant les informations les plus précieuses.

La plupart des modèles d’IA modernes effectuent l’extraction automatique des caractéristiques, mais il est toujours utile de comprendre les différents moyens de la gérer. Voici quelques méthodes d’extraction de caractéristiques courantes utilisées pour la dimension :

Analyse en composantes principales (PCA) : cette technique réduit le nombre de caractéristiques dans les grands jeux de données aux composantes principales ou aux nouvelles caractéristiques à utiliser par le classificateur du modèle pour ses tâches spécifiques.

La PCA est populaire en raison de sa capacité à créer des données originales qui ne sont pas corrélées, ce qui signifie que les nouvelles dimensions créées par l’IA sont indépendantes les unes des autres.7 La PCA est donc une solution efficace pour le surajustement en raison du manque de redondance des données, car chaque caractéristique est unique.   
 
Analyse discriminante linéaire (LDA) : cette technique est couramment utilisée dans le machine learning supervisé pour séparer plusieurs classes et caractéristiques afin de résoudre les problèmes de classification.

Cette technique est couramment utilisée pour optimiser les modèles de machine learning. Les nouveaux points de données sont classés à l’aide de statistiques bayésiennes pour modéliser la distribution des données pour chaque classe. 

t-SNE (T-distributed stochastic neighbor embedding) : cette technique de machine learning est couramment appliquée à des tâches telles que la visualisation de caractéristiques dans l’apprentissage profond.8 Ceci est particulièrement utile lorsqu’il s’agit de visualiser des données à haute dimension en 2D ou en 3D.

Cette méthode est couramment utilisée pour analyser les modèles et les relations dans la science des données. En raison de sa nature non linéaire, le t-SNE est coûteux en calcul et n’est couramment utilisé que pour les tâches de visualisation.

Fréquence des termes et fréquence inverse des documents (TF-IDF) : cette méthode statistique évalue l’importance des mots en fonction de leur fréquence d’apparition. La fréquence du terme dans un document spécifique est pondérée par la fréquence à laquelle il apparaît dans tous les documents d’une collection ou d’un corpus.9 

Cette technique est couramment utilisée dans le NLP pour la classification, le cluster et la récupération d’informations. Le Bag of words (BoW) est une technique similaire mais au lieu de tenir compte de la pertinence du terme, elle traite efficacement tous les mots de la même manière. 

Mixture of Experts | 12 décembre, épisode 85

Décryptage de l’IA : Tour d’horizon hebdomadaire

Rejoignez notre panel d’ingénieurs, de chercheurs, de chefs de produits et autres spécialistes de premier plan pour connaître l’essentiel de l’actualité et des dernières tendances dans le domaine de l’IA.

Cas d’utilisation

Traitement d’image et vision par ordinateur : le processus d’extraction des caractéristiques identifie et extrait les caractéristiques clés des images et des vidéos. Les données d’image brutes (pixels) sont transformées en caractéristiques que la machine peut appliquer à des algorithmes pour extraire et classer un nouvel ensemble de caractéristiques. Par exemple, l’histogramme des gradients orientés (HOG) est un algorithme d’extraction de caractéristiques utilisé pour la détection d’objets.

Traitement automatique du langage naturel : l’extraction de caractéristiques convertit les données texte brutes en une structure de format que le modèle de machine learning peut traiter. Cela s’avère particulièrement utile pour des tâches telles que la classification, l’analyse des sentiments ou la named entity recognition (NER). Cette technique peut être appliquée dans tous les secteurs d’activité, utilisée dans les interfaces de chat et même dans les domaines de la santé comportementale. Cette recherche suggère que l’extraction de caractéristiques aide à la reconnaissance des émotions multimodales pour surveiller la santé comportementale des patients10.

Traitement du signal : cette technique permet d’analyser et d’extraire des informations significatives à partir de données de signal brutes (audio, images ou même données de séries temporelles) afin de faciliter des tâches telles que la classification, la détection ou la prédiction. Bien que le traitement du signal soit traditionnellement associé à des domaines tels que la reconnaissance vocale, le traitement audio et l’analyse d’images, il peut également être appliqué dans de nombreux autres domaines. Par exemple, dans le contexte médical, les signaux psychologiques sont utilisés, tels que les relevés d’ECG, pour détecter les tendances.11

Solutions connexes
IBM watsonx.ai

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.

Découvrir les solutions d’IA
Conseils et services en matière d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Bénéficiez d’un accès centralisé aux fonctionnalités couvrant le cycle de développement de l’IA. Produisez des solutions IA puissantes offrant des interfaces conviviales, des workflows et un accès à des API et SDK conformes aux normes du secteur.

Découvrir watsonx.ai Réserver une démo en direct
Notes de bas de page

1 Minsky, Marvin. "Steps toward artificial intelligence." Proceedings of the RI 49, no. 1 (1961) : 8-30. https://rodsmith.nz/wp-content/uploads/Minsky-steps-towards-artificial-intelligence-1.pdf.

2 Ian Goodfellow, Yoshua Bengio et Aaron Courville. Deep Learning (Cambridge, MA: MIT Press, 2016).  https://www.deeplearningbook.org/contents/autoencoders.html.

3 Narisetty, Naveen Naidu. "Bayesian model selection for high-dimensional data." In Handbook of statistics, vol. 43, pp. 207-248. Elsevier, 2020. https://www.sciencedirect.com/science/article/abs/pii/S0169716119300380.  

4 de-la-Bandera, Isabel, David Palacios, Jessica Mendoza et Raquel Barco. "Feature extraction for dimensionality reduction in cellular networks performance analysis." Sensors 20, no. 23 (2020): 6944. https://pmc.ncbi.nlm.nih.gov/articles/PMC7730729.

5 https://www.sciencedirect.com/topics/computer-science/feature-extraction.

6 Khalid, Samina, Tehmina Khalil et Shamila Nasreen. "A survey of feature selection and feature extraction techniques in machine learning." In 2014 science and information conference, pp. 372-378. IEEE, 2014. https://ieeexplore.ieee.org/abstract/document/6918213.  

7 Kuhn, Max et Kjell Johnson. Applied predictive modeling. Vol. 26. New York: Springer, 2013.  

8 Zhou, Yuansheng et Tatyana O. Sharpee. "Using global t-SNE to preserve intercluster data structure." Neural computation 34, no. 8 (2022): 1637-1651. https://pmc.ncbi.nlm.nih.gov/articles/PMC10010455/.  

9 Sammut, Claude et Geoffrey I. Webb, eds. Encyclopedia of machine learning. Springer Science & Business Media, 2011.  

10 Minsky, Marvin. "Steps toward artificial intelligence." Proceedings of the IRE 49, no. 1 (1961): 8 30. https://www.sciencedirect.com/science/article/abs/pii/S1566253523005341.  

11 Geetha, A. V., T. Mala, D. Priyanka et E. Uma. "Multimodal emotion recognition with deep learning: advancements, challenges, and future directions." Information Fusion 105 (2024): 102218. https://www.sciencedirect.com/science/article/abs/pii/S1566253523005341.