Publication : 27 août 2024
Contributeurs : Dave Bergmann, Cole Stryker
L’analytique augmentée est une intégration du traitement automatique du langage naturel (NLP) et d’autres capacités de machine learning ayant pour but d’améliorer les plateformes d’analyse de données. Les outils d’analytique augmentée utilisent également l’intelligence artificielle (IA) pour automatiser et rationaliser l’analyse des données grâce à des workflows intuitifs et simples d’utilisation.
L’analytique augmentée permet de démocratiser la prise de décision fondée sur les données grâce à l’automatisation ou à la simplification des processus, notamment la préparation des données, la sélection des modèles, la génération d’informations et la visualisation des données. Grâce aux capacités d’analytique augmentée, les tâches qui nécessitaient autrefois l’expertise technique des data scientists peuvent désormais être effectuées par les analystes et les utilisateurs professionnels.
L’IA générative a accéléré la prolifération des plateformes d’analytique augmentée et des outils en libre-service. La disponibilité croissante de grands modèles de langage (LLM) sophistiqués facilite les requêtes en langage naturel et la génération de langage naturel (NLG), permettant aux utilisateurs d’interroger des données et d’interpréter les résultats sans connaissances techniques ou langages de programmation spécialisés.
De plus, les algorithmes de machine learning peuvent optimiser en permanence les fonctionnalités principales des outils d’analytique augmentée pour mieux répondre aux besoins d’utilisateurs ou de cas d’utilisation spécifiques. Par exemple, une plateforme de business intelligence (BI) peut identifier les tendances des requêtes des utilisateurs au fil du temps, puis proposer automatiquement des informations exploitables pertinentes à ces modèles en temps réel sur un tableau de bord de reporting.
En réduisant les obstacles techniques qui empêchent d’obtenir des informations pertinentes à partir de données complexes, l’analytique augmentée élargit l’accès au processus d’analyse. Ce faisant, les solutions d’analytique augmentée sont capables d’améliorer la maîtrise des données à l’échelle de l’entreprise, tout en garantissant que les décisions commerciales clés prises dans l’ensemble de l’organisation reposent sur une analyse approfondie des données.
Abonnez-vous à la Think Newsletter
Comme le terme l’indique, les solutions d’analytique augmentée sont conçues pour améliorer chaque étape du processus d’analyse de données, de la préparation des données à la génération d’informations en passant par la fourniture de rapports clairs et faciles à interpréter. Une plateforme d’analyse robuste en libre-service permet à tout utilisateur d’obtenir des informations plus approfondies, plus facilement, sans nécessairement détenir tout le savoir-faire technique.
Les principales capacités d’une solution d’analytique augmentée idéale sont les suivantes :
Parmi les avantages les plus évidents de l’analytique augmentée, citons la diminution des tâches fastidieuses et le gain de temps. L’augmentation de la quantité de données induite par l’ère du big data s’accompagne d’une augmentation parallèle de la quantité de travail nécessaire pour préparer ces données à des fins d’analyse et consolider les informations provenant de sources de données disparates.
Pour être traitées par les algorithmes de machine learning, les données doivent être collectées à partir de plusieurs sources, organisées et agrégées, puis mises en forme de façon claire et cohérente. En présence d’ensembles de données tabulaires, par exemple, les champs de données doivent être ordonnés de manière cohérente afin de garantir la correspondance des caractéristiques respectives des plongements vectoriels de chaque point de données avec celles des autres points de données. Lorsqu’il est effectué manuellement, ce processus peut être très fastidieux et demande beaucoup de travail.
Modernes, les plateformes de BI optimisées par l’IA sont en mesure d’exploiter le machine learning pour automatiser de nombreuses tâches de nettoyage des données en :
Détectant automatiquement des attributs de données pertinents : un algorithme peut détecter la présence d’informations géographiques (un code postal ou des coordonnées de latitude et de longitude) ou de coordonnées (une adresse e-mail ou un numéro de téléphone). Ces données peuvent ensuite être placées dans un schéma de formatage unifié.
Garantissant la qualité des données et en préservant la confidentialité : les algorithmes peuvent être entraînés pour évaluer, minimiser ou ignorer les entrées provenant de différentes sources de données, conformément à la politique de gouvernance des données d’une organisation. Une plateforme d’analytique augmentée peut renforcer les pratiques de gouvernance des données, en nettoyant automatiquement les points de données des informations personnelles identifiables (PII). Ce point s’avère particulièrement utile dans des domaines tels que la santé, où l’utilisation de ces informations est fortement réglementée.
Lisant et en extrayant des informations d’un PDF ou de sources textuelles enrichies : ce processus peut également impliquer la suppression ou la substitution de valeurs nulles ou de caractères spéciaux, tels que des signes de ponctuation ou des symboles non standard, afin de convertir le texte dans un format lisible par une machine.
Bien que les tâches généralement associées aux analystes de données consistent à interroger les données de manière proactive afin d’informer des décisions spécifiques ou de tester des hypothèses particulières, une grande partie de la valeur offerte par une science des données robuste provient de l’exploration des données dans leur ensemble, à la recherche de connexions et d’informations invisibles ou inattendues.
Un outil d’analytique augmentée peut, par exemple, recommander automatiquement des associations entre différentes sources de données qu’un utilisateur aurait autrement négligées. Il peut également faire apparaître des données aberrantes ou des tendances anormales et lancer une analyse plus approfondie. L’application de l’apprentissage non supervisé, tel que les modèles d’ association ou de clustering, permet de reconnaître des tendances et des corrélations inhérentes qui pourraient fournir des informations exploitables.
L’un des principaux obstacles à l’entrée pour les utilisateurs qui ne détiennent pas de connaissances techniques mais qui sont intéressés par l’analyse de données est l’étendue des connaissances spécialisées requises pour l’analyse traditionnelle des données. Pour de nombreuses personnes, apprendre à coder ou à utiliser un langage de requête structuré (SQL) est extrêmement difficile et peut demander beaucoup de temps. Cela inclut l’apprentissage des techniques statistiques, de la nomenclature et des bonnes pratiques nécessaires pour interpréter et valider efficacement les résultats.
L’alliance de l’analyse des données et du traitement automatique du langage naturel (NLP) semble être le moyen le plus percutant et le plus intuitif par lequel l’analytique augmentée peut élargir l’accès aux informations fondées sur les données. Les utilisateurs peuvent interroger les données en utilisant un langage clair et simple : « Quels produits ont les taux de retour les plus élevés dans les 30 jours qui suivent les fêtes de fin d’année ? », et recevoir des réponses dans un langage tout aussi simple.
En back-end, un LLM doit interpréter cette requête en langage naturel, la traduire en une requête structurée et émettre des suppositions pour compléter les informations manquantes en fonction de sa compréhension du contexte de la question de l’utilisateur. Un ou plusieurs modèles doivent être sélectionnés pour traiter la demande. Le modèle doit puiser dans la source de données (ou les sources) la plus pertinente pour l’objet. Enfin, le LLM doit interpréter les résultats mathématiques et les articuler de manière à centrer les détails pertinents.
Toutefois, du point de vue de l’utilisateur, tout cela revient à poser une question et à recevoir une réponse.
Les meilleures solutions d’analytique augmentée peuvent non seulement offrir des capacités robustes de visualisation des données, mais aussi intégrer des visualisations des données dans la production automatisée de rapports afin de faciliter le partage d’informations et la prise de décision collaborative.
Si le langage naturel est souvent un moyen très utile d’articuler des informations, la visualisation est souvent le moyen le plus intuitif de comparer et de mettre en évidence des tendances. Les graphiques, les diagrammes, les tracés, les cartes de densité et d’autres types de visualisations de données peuvent s’avérer pratiques lorsqu’il s’agit d’explorer les données et d’établir des connexions qu’on ne penserait pas à intégrer explicitement dans une requête.
Historiquement, prendre une requête en langage naturel en entrée et renvoyer une visualisation de données sophistiquée en sortie nécessitait la chorégraphie sophistiquée de plusieurs modèles fonctionnant à la manière d’une chaîne de montage. Mais l’évolution constante des LLM, qui n’étaient auparavant que des textes, vers des modèles d’IA multimodaux capables de fonctionner de manière transparente à travers différentes modalités de données, a rationalisé encore davantage la polyvalence des plateformes d’analytique augmentée.
Il est alors possible d’adopter une approche dynamique de l’analyse des données, dans laquelle même les utilisateurs ne disposant pas des connaissances techniques peuvent ouvertement explorer les connexions et les hypothèses, avec des résultats, des recommandations et des informations notables facilement accessibles dans des tableaux de bord interactifs et intuitifs.
Bien que le NLP attire l’attention, les récents résultats du rapport Magic Quadrant de Gartner indiquent que la capacité la plus recherchée pour les plateformes d’analytique et de business intelligence (ABI) n’est pas la requête en langage naturel, mais les informations automatisées. En d’autres termes, les utilisateurs professionnels sont plus préoccupés par les résultats que par le processus qui permet leur obtention1.
Les meilleures solutions d’analytique augmentée suppriment le besoin de décider exactement comment interroger les données pour obtenir des informations. De fait, les utilisateurs professionnels peuvent se concentrer sur l’action à entreprendre en fonction de ces informations. Au-delà de ses capacités NLP évidentes, un LLM peut servir de moteur de prise de décision en temps réel. Une plateforme d’analytique augmentée moderne peut ainsi adapter l’analyse au contexte spécifique de la demande d’un utilisateur de manière beaucoup plus dynamique qu’avec de simples règles SI-ALORS.
Par exemple, les logiciels d’analytique augmentée peuvent déduire de la nature d’une requête le type de données à examiner et le type d’analyse souhaité, puis suggérer intelligemment des schémas de visualisation des données optimaux. Les solutions d’analytique augmentée peuvent également exécuter des analyses sur plusieurs modèles de forecasting et mettre en évidence les prédictions du modèle offrant le plus grand niveau de certitude. Les plateformes peuvent ainsi fournir des informations sur le processus de prédiction, plutôt que de simplement émettre des prédictions.
Les informations automatisées permettent également une analyse proactive des données, en faisant apparaître les valeurs aberrantes et les tendances émergentes au fur et à mesure qu’elles apparaissent, au lieu d’attendre la bonne requête pour les mettre en lumière. Par exemple, les outils d’analyse automatique vont identifier une baisse inattendue des indicateurs d’engagement client, alertant ainsi les utilisateurs professionnels d’une lacune dans l’expérience client afin qu’elle puisse être comprise et corrigée.
Une plateforme d’analytique optimale doit être en mesure de fournir plusieurs angles d’analyse des données, afin de comprendre le passé et de prendre des décisions informées pour l’avenir. Il existe quatre sous-ensembles clés d’informations analytiques, tous essentiels au processus de prise de décision.
L’analyse descriptive s’intéresse à l’analyse objective : que s’est-il passé ou que se passe-t-il ? Par exemple, dans le contexte des chaînes d’approvisionnement, l’analyse descriptive pourrait explorer les points de dépense des recettes et les zones faisant face à des ruptures de stocks.
L’analyse diagnostique vise à comprendre le passé : pourquoi les choses se sont produites ? Par exemple, l’analyse du comportement antérieur des clients peut permettre d’expliquer pourquoi une initiative marketing en cours n’est pas à la hauteur des attentes.
L’analyse prédictive vise à prédire l’avenir : la probabilité qu’un événement se produise ou les résultats attendus d’une action potentielle. L’analyse prédictive représente généralement le fondement d’une opération de business intelligence, basant les décisions sur une compréhension plus approfondie des conséquences probables.
L’analyse prescriptive vise à prédire des actions optimales, à savoir ce qui doit se produire ou comment maximiser la probabilité d’obtenir un résultat souhaité. La discipline de la modélisation prescriptive alimente des systèmes tels que les moteurs de recommandation, combinant l’analyse prédictive avec une logique de prise de décision solide pour identifier la voie à suivre idéale.
Bien que les plateformes d’analytique augmentée offrent un large éventail d’avantages importants, elles ne constituent pas à un remède à tous les maux de l’entreprise. L’analytique augmentée doit être considérée comme un outil puissant qui donne les meilleurs résultats lorsqu’il est utilisé par des employés ayant une bonne connaissance des données et mis en œuvre parallèlement à des pratiques solides de gouvernance des données.
Connaissance des données : bien que l’analyse augmentée réduise considérablement le travail nécessaire pour obtenir des informations exploitables à partir des données, ces informations ne sont utiles qu’entre les mains des employés dont les services ont donné la priorité à la littératie des données. Ainsi, une plateforme peut découvrir et mettre en évidence une corrélation notable, mais seul un utilisateur averti peut appliquer le bon jugement pour différencier une corrélation d’une causalité.
Gouvernance des données : la qualité des informations et des recommandations alimentées par l’IA dépend directement de la qualité et de la fiabilité des jeux de données qui sous-tendent l’analyse. Pour établir une confiance dans l’analyse prescriptive dans les organisations, ces dernières doivent investir dans une gouvernance des données solide. Cela permettrait en effet d’assurer une qualité de données constante, de respecter la conformité aux réglementations, de consolider proprement les sources de données et de surveiller la dérive des modèles et d’autres pièges du machine learning.
IBM watsonx BI Assistant répond à vos questions métier en quelques secondes et vous oriente vers les décisions les plus pertinentes. Comprenez ce qui s’est passé et pourquoi, ce qui pourrait arriver et ce que vous pouvez faire à ce sujet. Grâce à des explications claires de son raisonnement étape par étape, watsonx BI Assistant donne à chaque utilisateur professionnel les moyens d’agir.
Libérez le potentiel de vos données avec l’automatisation et les informations alimentées par l’IA. L’assistant IA en langage naturel est toujours disponible. Décrivez simplement les données dont vous avez besoin et laissez Cognos Analytics créer pour vous des visualisations de données stupéfiantes.
Anticipez les résultats grâce à des prévisions flexibles basées sur l’IA. Analysez des scénarios de simulation à grande échelle et précis en temps réel. Déployez sur site ou dans le cloud en fonction de vos besoins, y compris en tant que service sur AWS. Automatisez et unifiez la planification commerciale intégrée au sein de votre organisation et transformez les prédictions pilotées par l’IA en actions.
Apprenez-en plus sur l’analyse prescriptive : un processus qui consiste à analyser les données pour identifier les schémas, faire des prédictions et déterminer le plan d’action optimal.
Dans le monde professionnel, le forecasting vise à estimer la demande, à prévoir les ventes ou encore à estimer la croissance et l’expansion. Il facilite l’allocation des budgets, des capitaux, des ressources humaines, etc. Découvrez comment le forecasting peut aider à informer le processus de prise de décision.
Apprenez-en plus sur l’analyse avancée : un ensemble de techniques et d’outils sophistiqués utilisés pour analyser de grands volumes de données, découvrir des tendances cachées et fournir des informations exploitables.
Remarque : Tous les liens sont externes au site ibm.com
1 « Predicts 2024: How Artificial Intelligence Will Impact Analytics Users », (lien externe à ibm.com) Gartner, 4 janvier 2024.