La modélisation à l'aide de machine learning existe en raison de l'incertitude. Si nous pouvions mapper parfaitement les entrées aux sorties, nous n’aurions pas besoin de modèles. Mais les données du monde réel sont désordonnées, incomplètes et bruyantes. Nous modélisons donc des probabilités plutôt que des certitudes. L'étude des probabilités constitue la base de tout ce qui touche à machine learning et à l'intelligence artificielle (IA). Les théories probabilistes nous permettent de comprendre les données que nous avons utilisées pour modéliser de manière élégante et intelligente. Elles jouent un rôle essentiel dans la modélisation des incertitudes dans les prédictions des modèles ML. Elles nous aident à quantifier la vraisemblance, la probabilité et les certitudes d'un modèle statistique afin que nous puissions mesurer en toute confiance les résultats des modèles que nous créons. Plonger dans le monde des probabilités et en apprendre les principes fondamentaux vous aidera à comprendre les bases de tous les modèles d'apprentissage statistique et la manière dont leurs prédictions sont établies. Vous apprendrez comment nous pouvons faire des inférences et produire des résultats probabilistes.
Pour apprendre les distributions populaires et modéliser vos données en toute confiance, revenons aux bases et clarifions quelques terminologies.
Variable aléatoire : représentation numérique du résultat d’un phénomène aléatoire. Il s’agit d’une variable dont les valeurs possibles sont les résultats numériques d’un processus aléatoire.
Variable aléatoire discrète : une variable aléatoire qui peut prendre un nombre limité ou considérable de valeurs distinctes. Par exemple, le résultat d’un jeu de pile ou face (face = 1, pile = 0), ou le nombre d’e-mails de spam reçus en une heure.
Variable aléatoire continue : une variable aléatoire qui peut prendre n’importe quelle valeur dans une plage donnée. Par exemple, la taille d’une personne, la température dans une pièce ou la quantité de précipitations.
Événement : un ensemble d’un ou de plusieurs résultats d’un processus aléatoire. Par exemple, obtenir un nombre pair en lançant un dé (résultats : 2, 4, 6) ou le taux d’attrition client.
Résultat : un seul résultat possible d’une expérience aléatoire. Par exemple, lancer une pièce donne soit « Pile », soit « Face ».
Probabilité : mesure numérique de la probabilité qu’un événement se produira, allant de 0 (impossible) à 1 (certain).
Probabilité conditionnelle : la probabilité que l’événement se produise, dans la mesure où cet événement s’est déjà produit. Cette étape est cruciale en ML, car nous voulons souvent prédire un résultat à partir de certaines caractéristiques.
La probabilité est une mesure de la vraisemblance qu’un événement va se produise, de 0 (impossible) à 1 (certain).
Dans le machine learning, il s’agit souvent d’une probabilité conditionnelle
Exemple : un modèle de régression logistique pourrait dire
> « Étant donné l'âge = 45, le revenu = 60 000 USD, et l'historique,
> la probabilité de perte du client est de 0,82. »
Cet exemple ne signifie pas que le client va être perdu ; c’est une supposition basée sur les modèles statistiques dans les données d’apprentissage.
À l’ère moderne de l’IA générative, les modèles probabilistes tels que la régression logistique jouent un rôle énorme dans la détermination des résultats et des sorties d’un modèle. Ce rôle prend souvent la forme d'une fonction d'activation dans les couches de réseaux de neurones.