Data

De la donnée à l’Intelligence Artificielle : les 5 étapes

Share this post:

L’adoption et le succès des projets d’Intelligence Artificielle dans les entreprises nécessitent une approche structurée, progressive qui s’articule en 5 étapes majeures.

Le point fait de moins en moins débat : l’Intelligence Artificielle (IA) est riche de promesses de création de valeur et d’avantage concurrentiels significatifs pour les entreprises.

Mais la vraie question qui se pose à elles aujourd’hui est de savoir comment assurer l’adoption de l’IA pour en tirer le maximum de profit.

Cela passe par l’infrastructure. Il en est toujours ainsi. Les plus rapides voitures ne réduisent pas les temps de trajets sans routes et autoroutes adaptées. Les avions ne peuvent rapprocher les hommes sans contrôle aérien. Et, pour évoquer la traditionnelle analogie de l’or noir et des données, il ne peut y avoir d’essence à la pompe sans raffineries, réservoirs, pipelines et plateformes de forage.

Quel que soit le domaine, il faut une infrastructure adaptée sans laquelle la valeur, que ce soit par la voiture, l’avion ou le pétrole, ne saurait être créée à l’échelle industrielle. Il en va de même pour l’IA.

La réalisation des bénéfices potentiels de l’IA et plus généralement de valorisation des données, passe donc par la mise en place d’une chaîne industrielle de création de valeur, et donc d’une infrastructure  adaptée.

Reprenons l’analogie : la question n’est plus de savoir comment fabriquer de l’essence à partir du pétrole, mais d’exploiter les gisements de brut pour servir en continu tous les automobilistes de la planète.

Pour IBM, la mise en place de cette infrastructure pour l’adoption de l’IA passe par cinq étapes : la collecte des données, la gouvernance, l’analyse, le contrôle et le déploiement.

 

1.   La Collecte et l’Accès aux données

Les données sont le carburant de l’IA, mais les sources sont multiples que ce soit par leur origine, – données propres à l’entreprise, aux partenaires, aux clients, mais aussi données publiques -, que par leur format – données structurées ou non, contenu multimedia, ou réseaux sociaux. Et c’est souvent le croisement et la corrélation de données de natures et d’origines diverses qui sont le plus productrices d’informations. C’est bien une « chaîne d’approvisionnement » en données qu’il faut mettre en place. Et c’est le croisement de ces données qui est souvent le plus riche en valeur. Dans le même temps, l’émergence des clouds publics et privés, le plus souvent multiples, dans les infrastructures IT des entreprises pose un problème nouveau : où et comment stocker les données afin de concilier facilité d’accès, performances, protection et sécurité des données ? Comment choisir, selon la nature de chacune des données, entre un cloud privé, à l’abri du firewall, voire on premise, ou, au contraire dans le cloud public ?

2. La Gouvernance

Les chaînes d’approvisionnement traditionnelles ont leurs exigences : traçabilité, contrôle qualité, sécurité et même re-packaging et transformation. Les « chaînes d’approvisionnement en données» ont les leurs, similaires : traçabilité, contrôle qualité, sécurité et même re-packaging et transformation. C’est la deuxième étape : mettre en place une gouvernance des données ainsi d’assurer lignage, catalogage, protection, contrôle d’accès, sécurité, anonymisation. La gouvernance est l’étape clé qui permet de garantir in fine la confiance dans le « produit fini » qu’est la décision que ce soit par la qualité du résultat, le respect des réglementations (dont la protection des données personnelles – RGPD), et même l’éthique.

 

3. L’Analyse

La troisième étape est celle de l’analyse ; c’est à cette étape que la valeur est réellement extraite des données. Les méthodes et techniques d’analyse sont multiples mais qu’elles soient descriptives, prédictives et prescriptives, elles résultent de l’exploration par un utilisateur ou elles sont automatiques. Mais elles sont de plus en plus souvent fruit d’une combinaison des deux, d’une véritable collaboration entre l’homme et la machine. Pour cette raison, qu’on fasse appel aux traditionnelles constructions de tableaux de bord et de rapports, à la science des données ou aux méthodes de classification avancées, l’IA s’immisce partout que ce soit l’apprentissage automatique (et profond) des modèles, l’assistance à l’utilisateur en proposant analyses, corrélations ou visualisations, ou la facilitation de l’interaction entre homme et machine au travers d’interfaces en langage naturel.

4. Le Contrôle

Une fois transformée en (proposition de) décisions concrètes, les besoins de transparence, qualité, traçabilité n’ont pas disparu – c’est là notre quatrième étape. Certaines affaires récentes  l’ont notamment montré, par son coté boite noire, l’IA pose un réel problème de confiance : est-elle capable de justifier ces choix, ces décisions ? fait-elle correctement ce qu’on attend d’elle ? Ces choix ne reflètent-ils pas les biais des données à partir desquelles elle a « appris » ? L’explicabilité, l’élimination des biais, l’auditabilité, et la transparence sont fondamentales pour assurer la confiance dans l’IA et sont donc incontournables.

5. Le Déploiement

La dernière étape est celle du déploiement et de la gestion à grande échelle au sein de l’entreprise des applications d’IA : gérer les modèle d’IA, par nature évolutifs, déployer de manière sûre au travers d’architectures hybride (clouds multiples publics et privés, on-premise, etc.) donner accès à tous les utilisateurs, assurer l’approvisionnement en données. Les applications d’IA ont leurs besoins propres, mais les méthodes et outils existent aujourd’hui pour y répondre.

 

Méthodes et solutions d’IBM

IBM propose des méthodes et des solutions pour aider ses clients à la mise en place des projets d’intelligence artificielle. IBM Cloud Pak for Data est un de ces outils qui réunit en une plateforme unique tous les outils nécessaires aux cinq étapes évoquées ici : collecte, gouvernance, analyse des données, et déploiement pour la mise en production. IBM Cloud Pak for Data est conçu pour le cloud hybride en s’appuyant sur sur les microservices Kubernetes. Forrester ne s’y est pas trompé qui a désigné IBM Cloud Private for Data comme le leader du marché des Enterprise Insights Platform (par Brian Hopkins, 7 Janvier 2019).

Ces outils couvrent l’ensemble du cycle des projets : plateforme cloud pour l’Intelligence Artificielle, architecture de collecte et de stockage des données de tous types et toutes origines, gestion des développements et déploiements dans des environnements multi-cloud hybrides, gouvernance des données et des modèles d’IA, Business Intelligence, outils de développement et déploiement des modèles de data science et d’IA, support des technologies Open Source, et bien d’autres.

Visitez notre site web : https://www.ibm.com/cloud-computing/fr-fr/smartpapers/data-governance-multicloud-integration/

 

  Rémi Lissajoux – Analytics Marketing Manager, IBM Cloud

 rlissajoux@fr.ibm.com

 https://www.linkedin.com/in/rémi-lissajoux-86061/

 

More Data stories
18 juillet 2019

Hackathon Code pour Notre-Dame

Hackathon Code pour Notre-Dame : des solutions technologiques pour aider à préserver et restaurer des monuments historiques   Le contexte Le 15 avril 2019, un incendie a éclaté dans l’édifice le plus emblématique et historique de France, la cathédrale Notre-Dame. Bien qu’une grande partie des œuvres d’art ait été sauvée, il y a eu des […]

Continue reading

24 juin 2019

L’IA et le prédictif vont permettre d’offrir davantage de services de transport connectés

L’analyse des données de transport permet aux opérateurs et aux collectivités d’avoir une connaissance plus fine des flux et des usages. Ces diagnostics sont autant de leviers pour renforcer l’efficacité des infrastructures existantes et mieux combiner les transports individuels et collectifs. Les outils numériques encouragent aussi les usages partagés, en attendant les nouvelles opportunités liées […]

Continue reading

18 juin 2019

Enjeux de la sauvegarde des données face aux applications modernes

Les nouvelles architectures logicielles, notamment la virtualisation, et les nouveaux usages comme l’intelligence artificielle (IA) ou le Big Data imposent des solutions spécifiques de sauvegarde. La sauvegarde classique de bases de données ou de progiciels fonctionnant sur des serveurs dédiés peut s’opérer sur bande, sur des disques à bas coût, dans des espaces de stockage […]

Continue reading