Data

De la donnée à l’Intelligence Artificielle : les 5 étapes

Share this post:

L’adoption et le succès des projets d’Intelligence Artificielle dans les entreprises nécessitent une approche structurée, progressive qui s’articule en 5 étapes majeures.

Le point fait de moins en moins débat : l’Intelligence Artificielle (IA) est riche de promesses de création de valeur et d’avantage concurrentiels significatifs pour les entreprises.

Mais la vraie question qui se pose à elles aujourd’hui est de savoir comment assurer l’adoption de l’IA pour en tirer le maximum de profit.

Cela passe par l’infrastructure. Il en est toujours ainsi. Les plus rapides voitures ne réduisent pas les temps de trajets sans routes et autoroutes adaptées. Les avions ne peuvent rapprocher les hommes sans contrôle aérien. Et, pour évoquer la traditionnelle analogie de l’or noir et des données, il ne peut y avoir d’essence à la pompe sans raffineries, réservoirs, pipelines et plateformes de forage.

Quel que soit le domaine, il faut une infrastructure adaptée sans laquelle la valeur, que ce soit par la voiture, l’avion ou le pétrole, ne saurait être créée à l’échelle industrielle. Il en va de même pour l’IA.

La réalisation des bénéfices potentiels de l’IA et plus généralement de valorisation des données, passe donc par la mise en place d’une chaîne industrielle de création de valeur, et donc d’une infrastructure  adaptée.

Reprenons l’analogie : la question n’est plus de savoir comment fabriquer de l’essence à partir du pétrole, mais d’exploiter les gisements de brut pour servir en continu tous les automobilistes de la planète.

Pour IBM, la mise en place de cette infrastructure pour l’adoption de l’IA passe par cinq étapes : la collecte des données, la gouvernance, l’analyse, le contrôle et le déploiement.

 

1.   La Collecte et l’Accès aux données

Les données sont le carburant de l’IA, mais les sources sont multiples que ce soit par leur origine, – données propres à l’entreprise, aux partenaires, aux clients, mais aussi données publiques -, que par leur format – données structurées ou non, contenu multimedia, ou réseaux sociaux. Et c’est souvent le croisement et la corrélation de données de natures et d’origines diverses qui sont le plus productrices d’informations. C’est bien une « chaîne d’approvisionnement » en données qu’il faut mettre en place. Et c’est le croisement de ces données qui est souvent le plus riche en valeur. Dans le même temps, l’émergence des clouds publics et privés, le plus souvent multiples, dans les infrastructures IT des entreprises pose un problème nouveau : où et comment stocker les données afin de concilier facilité d’accès, performances, protection et sécurité des données ? Comment choisir, selon la nature de chacune des données, entre un cloud privé, à l’abri du firewall, voire on premise, ou, au contraire dans le cloud public ?

2. La Gouvernance

Les chaînes d’approvisionnement traditionnelles ont leurs exigences : traçabilité, contrôle qualité, sécurité et même re-packaging et transformation. Les « chaînes d’approvisionnement en données» ont les leurs, similaires : traçabilité, contrôle qualité, sécurité et même re-packaging et transformation. C’est la deuxième étape : mettre en place une gouvernance des données ainsi d’assurer lignage, catalogage, protection, contrôle d’accès, sécurité, anonymisation. La gouvernance est l’étape clé qui permet de garantir in fine la confiance dans le « produit fini » qu’est la décision que ce soit par la qualité du résultat, le respect des réglementations (dont la protection des données personnelles – RGPD), et même l’éthique.

 

3. L’Analyse

La troisième étape est celle de l’analyse ; c’est à cette étape que la valeur est réellement extraite des données. Les méthodes et techniques d’analyse sont multiples mais qu’elles soient descriptives, prédictives et prescriptives, elles résultent de l’exploration par un utilisateur ou elles sont automatiques. Mais elles sont de plus en plus souvent fruit d’une combinaison des deux, d’une véritable collaboration entre l’homme et la machine. Pour cette raison, qu’on fasse appel aux traditionnelles constructions de tableaux de bord et de rapports, à la science des données ou aux méthodes de classification avancées, l’IA s’immisce partout que ce soit l’apprentissage automatique (et profond) des modèles, l’assistance à l’utilisateur en proposant analyses, corrélations ou visualisations, ou la facilitation de l’interaction entre homme et machine au travers d’interfaces en langage naturel.

4. Le Contrôle

Une fois transformée en (proposition de) décisions concrètes, les besoins de transparence, qualité, traçabilité n’ont pas disparu – c’est là notre quatrième étape. Certaines affaires récentes  l’ont notamment montré, par son coté boite noire, l’IA pose un réel problème de confiance : est-elle capable de justifier ces choix, ces décisions ? fait-elle correctement ce qu’on attend d’elle ? Ces choix ne reflètent-ils pas les biais des données à partir desquelles elle a « appris » ? L’explicabilité, l’élimination des biais, l’auditabilité, et la transparence sont fondamentales pour assurer la confiance dans l’IA et sont donc incontournables.

5. Le Déploiement

La dernière étape est celle du déploiement et de la gestion à grande échelle au sein de l’entreprise des applications d’IA : gérer les modèle d’IA, par nature évolutifs, déployer de manière sûre au travers d’architectures hybride (clouds multiples publics et privés, on-premise, etc.) donner accès à tous les utilisateurs, assurer l’approvisionnement en données. Les applications d’IA ont leurs besoins propres, mais les méthodes et outils existent aujourd’hui pour y répondre.

 

Méthodes et solutions d’IBM

IBM propose des méthodes et des solutions pour aider ses clients à la mise en place des projets d’intelligence artificielle. IBM Cloud Pak for Data est un de ces outils qui réunit en une plateforme unique tous les outils nécessaires aux cinq étapes évoquées ici : collecte, gouvernance, analyse des données, et déploiement pour la mise en production. IBM Cloud Pak for Data est conçu pour le cloud hybride en s’appuyant sur sur les microservices Kubernetes. Forrester ne s’y est pas trompé qui a désigné IBM Cloud Private for Data comme le leader du marché des Enterprise Insights Platform (par Brian Hopkins, 7 Janvier 2019).

Ces outils couvrent l’ensemble du cycle des projets : plateforme cloud pour l’Intelligence Artificielle, architecture de collecte et de stockage des données de tous types et toutes origines, gestion des développements et déploiements dans des environnements multi-cloud hybrides, gouvernance des données et des modèles d’IA, Business Intelligence, outils de développement et déploiement des modèles de data science et d’IA, support des technologies Open Source, et bien d’autres.

Visitez notre site web : https://www.ibm.com/cloud-computing/fr-fr/smartpapers/data-governance-multicloud-integration/

 

Analytics Marketing Manager, IBM Cloud

More Data stories
10 septembre 2019

Inauguration du nouveau site IBM et du Lab à Sophia-Antipolis

Inauguration IBM France a inauguré le nouveau site de son Lab à Sophia-Antipolis lundi 9 septembre . Une centaine d’invités ont participé à l’événement. Nicolas Sekkaki, président d’IBM France, aux côtés de Renaud Muselier, Président du Conseil régional de Provence-Alpes-Côte d’Azur, Charles-Ange Ginesy, Président du Conseil départemental des Alpes-Maritimes, Jean Leonetti, Président de la CASA […]

Continue reading

9 septembre 2019

Utiliser les API Watson sur OpenShift

Avant de parler de l’utilisation des API Watson sur OpenShift, définissons rapidement ce qu’elles sont. Les API Watson sont un ensemble de services d’intelligence artificielle (IA) disponibles sur IBM Cloud dotés d’une API REST et de SDK (Software Develpment Kit) pour de nombreux langages actuels de programmation. Watson Assistant (development de chatbots) et Watson Discovery (utilisation intelligente de corpus de textes) font partie […]

Continue reading

28 août 2019

Une mémoire « computationnelle » pour assurer calcul et stockage

Le disque dur traditionnel est pris en étau entre le rouleau compresseur Flash et l’indétrônable bande qui commence à se faire une place sur les infrastructures de stockage des opérateurs de Cloud. Mais l’avenir devrait être plus disruptif, avec l’arrivée de la mémoire « computationnelle », qui rassemble calcul et stockage.   La mémoire Flash omniprésente Le […]

Continue reading