C’est à Karl Pearson que l’on doit le développement de l’ACP en 1901, mais elle a gagné en popularité avec la disponibilité accrue des ordinateurs, qui ont permis des calculs statistiques multivariés1 à grande l’échelle. L’ACP est très efficace pour visualiser et explorer les jeux de données de haute dimensionnalité, ou les données présentant de nombreuses caractéristiques, car elle peut facilement identifier les tendances, les modèles ou les données aberrantes.
L’ACP est couramment utilisée pour le prétraitement des données destinées à être utilisées avec des algorithmes de machine learning. Elle permet d’extraire les caractéristiques les plus informatives de vastes ensembles de données tout en préservant les informations les plus pertinentes du jeu de données initial. Cela réduit la complexité du modèle, car l’ajout de chaque nouvelle fonctionnalité a un impact négatif sur les performances du modèle, ce qui est également communément appelé la « malédiction de la dimensionnalité ».
Par ailleurs, en projetant un jeu de données de haute dimensionnalité dans un espace de caractéristiques plus petit, l’ACP minimise ou élimine complètement les problèmes courants tels que la multicolinéarité et le surajustement. Le phénomène de multicolinéarité se produit lorsque deux variables indépendantes ou plus sont fortement corrélées entre elles, ce qui peut poser problème pour la modélisation causale. Les modèles surajustés se prêteront mal aux généralisations avec l’entrée de nouvelles données, ce qui diminuera leur valeur. L’ACP est une approche couramment utilisée dans l’analyse de régression, mais elle est également exploitée dans divers cas d’utilisation, tels que la reconnaissance de formes, le traitement du signal, le traitement d’images, etc.
Bien qu’il existe d’autres variantes de l’ACP, telles que la régression en composantes principales et l’ACP à noyau, cet article se concentrera sur la principale méthode utilisée dans la littérature actuelle.