La précision d’un modèle d’IA peut diminuer dans les jours suivant son déploiement, car les données de production divergent des données utilisées pour l’entraînement. Cela peut générer des prévisions erronées et créer des risques importants.
Pour se protéger contre la dérive et les biais des modèles, les organisations ont tout intérêt à utiliser un détecteur de dérive de l’IA ainsi que des outils de surveillance qui détectent automatiquement lorsque la précision d’un modèle diminue (ou dérive) en dessous d’un seuil prédéfini.
Ce programme de détection doit aussi être capable d’identifier les éléments à l’origine de cette dérive, ce qui permettrait de les réétiqueter et de les utiliser pour réentraîner le modèle, restaurant ainsi sa capacité de prédiction durant son exécution.
Dans le cas de la dérive statistique, on utilise des indicateurs statistiques pour comparer et analyser des échantillons de données. Cette méthode est souvent plus facile à mettre en œuvre, car la plupart des indicateurs sont généralement déjà utilisés au sein de l’entreprise. Dans le cas de la détection de la dérive du modèle, on mesure la similarité entre un point ou des groupes de points par rapport à la ligne de base de référence au sein d’un modèle.