Data

De la donnée à l’Intelligence Artificielle : les 5 étapes

Share this post:

L’adoption et le succès des projets d’Intelligence Artificielle dans les entreprises nécessitent une approche structurée, progressive qui s’articule en 5 étapes majeures.

Le point fait de moins en moins débat : l’Intelligence Artificielle (IA) est riche de promesses de création de valeur et d’avantage concurrentiels significatifs pour les entreprises.

Mais la vraie question qui se pose à elles aujourd’hui est de savoir comment assurer l’adoption de l’IA pour en tirer le maximum de profit.

Cela passe par l’infrastructure. Il en est toujours ainsi. Les plus rapides voitures ne réduisent pas les temps de trajets sans routes et autoroutes adaptées. Les avions ne peuvent rapprocher les hommes sans contrôle aérien. Et, pour évoquer la traditionnelle analogie de l’or noir et des données, il ne peut y avoir d’essence à la pompe sans raffineries, réservoirs, pipelines et plateformes de forage.

Quel que soit le domaine, il faut une infrastructure adaptée sans laquelle la valeur, que ce soit par la voiture, l’avion ou le pétrole, ne saurait être créée à l’échelle industrielle. Il en va de même pour l’IA.

La réalisation des bénéfices potentiels de l’IA et plus généralement de valorisation des données, passe donc par la mise en place d’une chaîne industrielle de création de valeur, et donc d’une infrastructure  adaptée.

Reprenons l’analogie : la question n’est plus de savoir comment fabriquer de l’essence à partir du pétrole, mais d’exploiter les gisements de brut pour servir en continu tous les automobilistes de la planète.

Pour IBM, la mise en place de cette infrastructure pour l’adoption de l’IA passe par cinq étapes : la collecte des données, la gouvernance, l’analyse, le contrôle et le déploiement.

 

1.   La Collecte et l’Accès aux données

Les données sont le carburant de l’IA, mais les sources sont multiples que ce soit par leur origine, – données propres à l’entreprise, aux partenaires, aux clients, mais aussi données publiques -, que par leur format – données structurées ou non, contenu multimedia, ou réseaux sociaux. Et c’est souvent le croisement et la corrélation de données de natures et d’origines diverses qui sont le plus productrices d’informations. C’est bien une « chaîne d’approvisionnement » en données qu’il faut mettre en place. Et c’est le croisement de ces données qui est souvent le plus riche en valeur. Dans le même temps, l’émergence des clouds publics et privés, le plus souvent multiples, dans les infrastructures IT des entreprises pose un problème nouveau : où et comment stocker les données afin de concilier facilité d’accès, performances, protection et sécurité des données ? Comment choisir, selon la nature de chacune des données, entre un cloud privé, à l’abri du firewall, voire on premise, ou, au contraire dans le cloud public ?

2. La Gouvernance

Les chaînes d’approvisionnement traditionnelles ont leurs exigences : traçabilité, contrôle qualité, sécurité et même re-packaging et transformation. Les « chaînes d’approvisionnement en données» ont les leurs, similaires : traçabilité, contrôle qualité, sécurité et même re-packaging et transformation. C’est la deuxième étape : mettre en place une gouvernance des données ainsi d’assurer lignage, catalogage, protection, contrôle d’accès, sécurité, anonymisation. La gouvernance est l’étape clé qui permet de garantir in fine la confiance dans le « produit fini » qu’est la décision que ce soit par la qualité du résultat, le respect des réglementations (dont la protection des données personnelles – RGPD), et même l’éthique.

 

3. L’Analyse

La troisième étape est celle de l’analyse ; c’est à cette étape que la valeur est réellement extraite des données. Les méthodes et techniques d’analyse sont multiples mais qu’elles soient descriptives, prédictives et prescriptives, elles résultent de l’exploration par un utilisateur ou elles sont automatiques. Mais elles sont de plus en plus souvent fruit d’une combinaison des deux, d’une véritable collaboration entre l’homme et la machine. Pour cette raison, qu’on fasse appel aux traditionnelles constructions de tableaux de bord et de rapports, à la science des données ou aux méthodes de classification avancées, l’IA s’immisce partout que ce soit l’apprentissage automatique (et profond) des modèles, l’assistance à l’utilisateur en proposant analyses, corrélations ou visualisations, ou la facilitation de l’interaction entre homme et machine au travers d’interfaces en langage naturel.

4. Le Contrôle

Une fois transformée en (proposition de) décisions concrètes, les besoins de transparence, qualité, traçabilité n’ont pas disparu – c’est là notre quatrième étape. Certaines affaires récentes  l’ont notamment montré, par son coté boite noire, l’IA pose un réel problème de confiance : est-elle capable de justifier ces choix, ces décisions ? fait-elle correctement ce qu’on attend d’elle ? Ces choix ne reflètent-ils pas les biais des données à partir desquelles elle a « appris » ? L’explicabilité, l’élimination des biais, l’auditabilité, et la transparence sont fondamentales pour assurer la confiance dans l’IA et sont donc incontournables.

5. Le Déploiement

La dernière étape est celle du déploiement et de la gestion à grande échelle au sein de l’entreprise des applications d’IA : gérer les modèle d’IA, par nature évolutifs, déployer de manière sûre au travers d’architectures hybride (clouds multiples publics et privés, on-premise, etc.) donner accès à tous les utilisateurs, assurer l’approvisionnement en données. Les applications d’IA ont leurs besoins propres, mais les méthodes et outils existent aujourd’hui pour y répondre.

 

Méthodes et solutions d’IBM

IBM propose des méthodes et des solutions pour aider ses clients à la mise en place des projets d’intelligence artificielle.

Ces outils couvrent l’ensemble du cycle des projets : plateforme cloud pour l’Intelligence Artificielle, architecture de collecte et de stockage des données de tous types et toutes origines, gestion des développements et déploiements dans des environnements multi-cloud hybrides, gouvernance des données et des modèles d’IA, Business Intelligence, outils de développement et déploiement des modèles de data science et d’IA, support des technologies Open Source, et bien d’autres.

Visitez notre site web : https://www.ibm.com/cloud-computing/fr-fr/smartpapers/data-governance-multicloud-integration/

 

  Rémi Lissajoux – Analytics Marketing Manager, IBM Cloud

 rlissajoux@fr.ibm.com

 https://www.linkedin.com/in/rémi-lissajoux-86061/

 

More Data stories
27 mai 2019

La 5G sera un accélérateur de la numérisation

Bien plus qu’un prolongement de la 4G, la 5G va permettre aux réseaux mobiles de concurrencer les performances de la fibre optique sur le fixe. Les débits atteints d’ici 5 à 10 ans permettront de regarder des vidéos ou de jouer sur son mobile, de faciliter les interactions entre les véhicules connectés, de permettre aux […]

Continue reading

24 mai 2019

L’Intelligence Artificielle au service du bâtiment connecté

Depuis des années, les bâtiments sont connectés. Par exemple pour gérer les alarmes des ascenseurs, surveiller les chaufferies, contrôler les lumières ou dans le cadre de solutions de téléalarme. Toutefois, une connexion plus globale et l’utilisation de technologies comme l’Intelligence Artificielle et l’Analytics permettent d’envisager de nouvelles applications qui optimiseront les coûts et l’occupation des […]

Continue reading

20 mai 2019

L’IA permet de piloter des systèmes de vidéosurveillance à grande échelle

Entre l’augmentation du trafic et la multiplication des menaces, la sécurité des aéroports et des gares constitue un défi de taille. Les moyens humains pour prévenir et lutter contre les risques étant limités, les technologies offrent de véritables opportunités pour assurer la sécurité dans ces zones fréquentées par les voyageurs. L’intelligence artificielle permet déjà de […]

Continue reading