Infrastructures

Une mémoire « computationnelle » pour assurer calcul et stockage

Share this post:

Le disque dur traditionnel est pris en étau entre le rouleau compresseur Flash et l’indétrônable bande qui commence à se faire une place sur les infrastructures de stockage des opérateurs de Cloud. Mais l’avenir devrait être plus disruptif, avec l’arrivée de la mémoire « computationnelle », qui rassemble calcul et stockage.

 

La mémoire Flash omniprésente

Le disque dur est aujourd’hui frontalement concurrencé par les unités de stockage Flash, qui grignotent rapidement ses parts de marché. Et pour cause ! À tarifs inchangés, la mémoire Flash propose une capacité en croissance constante. La mémoire récente enregistre en effet 4 bits par cellule, là où la génération précédente n’en inscrivait que 3. Cette nouvelle technologie est déjà utilisée dans des produits grand public, comme la gamme 860 QVO de Samsung.

IBM travaille à son adaptation aux spécificités du marché des entreprises. Elle est en effet délicate à exploiter, les composants acceptant un nombre limité d’écritures par cellule (et qui va en se réduisant à mesure que les cellules stockent plus d’informations). Il faut donc trouver des techniques pour augmenter la fiabilité, sans faire de compromis sur la capacité utile ou sur les performances. L’une des voies explorées consiste à placer une couche logicielle au-dessus des unités Flash, afin de les employer de manière plus intelligente. Une approche qui nécessite de disposer d’une expertise globale dans les systèmes de stockage.

 

La bande part à l’assaut du Cloud

Le disque dur est attaqué sur un autre front : l’enregistrement massif de données secondaires. Ses capacités de stockage arrivent à maturité et ne devraient plus progresser aussi rapidement que par le passé. Le disque dur doit faire face à une technologie dont la densité de stockage devrait croitre de plus de 30% chaque année, et avec un coût 10 fois inférieur : la bande.

IBM est aujourd’hui le seul spécialiste au monde à disposer d’équipes de recherche travaillant sur le futur de la bande. C’est aussi le seul acteur du marché à fabriquer des lecteurs de bandes (les autres constructeurs utilisant ces produits en OEM).  La raison de ce positionnement est simple : IBM est convaincu que la bande va rester le média le moins cher pour stocker des données secondaires.

Jusqu’alors, le marché de la bande était limité au backup. Tous les produits étaient conçus pour cet usage. IBM ne compte pas abandonner ce secteur, mais pense aussi aujourd’hui aux acteurs du monde du Cloud. La facture stockage de ces grandes entreprises tend en effet à exploser. Le coût de la bande positionne ce support comme une excellente alternative… moyennant quelques améliorations techniques en cours de développement.

 

Rendre la bande plus réactive grâce à l’IA

En effet, pour que la bande progresse dans le monde du Cloud, il est impératif de pouvoir accéder plus rapidement aux données stockées. Les librairies de bandes actuelles utilisent des robots, chargés d’insérer et de retirer les médias dans les lecteurs. L’Intelligence Artificielle (IA) peut aider à mieux organiser le travail des robots, et ainsi optimiser le temps d’accès aux données. En mettant en cache les informations à l’avance, il est possible d’y accéder sans latence.

L’IA va se charger de caractériser les données et d’examiner comment les utilisateurs y accèdent. Suivant les habitudes de chacun, l’IA mettra en cache les informations fréquemment accédées, ainsi que celles susceptibles d’être consultées ultérieurement. Une fois l’IA entrainée avec le jeu de données d’un client, la bande sera en mesure de combiner à la fois capacité, prix et vitesse. Particularité : cet apprentissage reste spécifique au système de stockage de l’opérateur de Cloud. Un élément qui lui permettra de fidéliser ses clients.

 

Rassembler calcul et stockage

Les avancées sur la mémoire Flash et sur la bande devraient se concrétiser d’ici 3 à 5 ans. Mais la suite se dessine déjà, avec la fusion entre calcul et stockage. Ceci se traduira par de nouveaux systèmes informatiques qui se rapprocheront davantage de notre source d’inspiration privilégiée : le cerveau.

Issu de millions d’années d’évolution et d’optimisation, le cerveau n’a pas choisi la voie consistant à séparer calcul et mémoire. Il en ira de même avec les systèmes informatiques du futur. Le transistor classique devrait céder la place au memristor, capable à la fois de stocker de l’information et d’y appliquer des opérations de base. C’est la mémoire computationnelle.

Ce travail de recherche a été détaillé  dans plusieurs publications scientifiques :

  • lors de la reconstruction d’une image compressée, un circuit de ce type a demandé 50 fois moins d’énergie que le meilleur composant dédié ;
  • sur de la corrélation de flux[1], la mémoire computationnelle s’est montrée 200 fois plus rapide qu’un système composé de deux processeurs et 4 GPUs haute-performance.

Le principe des neurones et synapses propre au cerveau devrait également être repris. Enfin, la dynamique des réseaux de neurones, qui transmettent des données par impulsion, sera aussi reproduite.

[1] Comparaison de jeux de données

 

Préparer le terrain pour la mémoire computationnelle

Il est essentiel de se préparer à l’arrivée de la mémoire computationnelle. Une tâche d’autant plus complexe que cette technologie fonctionne sur un mode analogique et non numérique. Il faudra donc aborder la problématique de la précision des calculs d’une manière différente.

Si des composants spécialisés ont déjà été testés avec succès, la mémoire computationnelle ne pourra prendre son essor que lorsqu’elle sera adaptée à des cas d’usage plus larges : IoT, IA, etc. IBM travaille d’ores et déjà à l’intégration de la mémoire computationnelle analogique dans les frameworks les plus courants relatifs à l’intelligence artificielle et au traitement de données.

Le stockage d’entreprise se concentre aujourd’hui sur les SSD, avec une montée notable de la bande. Demain, la mémoire computationnelle devrait permettre de lier stockage et calcul dans un tout nouveau type de système informatique.

 

Chef du département de recherches en Cloud & Computing Infrastructure au laboratoire d’IBM Research à Zurich.

More Infrastructures stories
17 septembre 2019

La gestion des flux entrants : un enjeu clé pour les assureurs !

Pour répondre aux sollicitations nombreuses et variées de clients devenus très exigeants, les assureurs ne peuvent augmenter leurs ressources en proportion de l’augmentation des interactions ! Ils doivent contenir leurs coûts tout en augmentant le niveau de service, sans quoi les clients, en consommateurs avertis, décideront de changer de compagnie d’assurance. L’un des enjeux clés de […]

Continue reading

10 septembre 2019

Inauguration du nouveau site IBM et du Lab à Sophia-Antipolis

Inauguration IBM France a inauguré le nouveau site de son Lab à Sophia-Antipolis lundi 9 septembre . Une centaine d’invités ont participé à l’événement. Nicolas Sekkaki, président d’IBM France, aux côtés de Renaud Muselier, Président du Conseil régional de Provence-Alpes-Côte d’Azur, Charles-Ange Ginesy, Président du Conseil départemental des Alpes-Maritimes, Jean Leonetti, Président de la CASA […]

Continue reading

9 septembre 2019

Utiliser les API Watson sur OpenShift

Avant de parler de l’utilisation des API Watson sur OpenShift, définissons rapidement ce qu’elles sont. Les API Watson sont un ensemble de services d’intelligence artificielle (IA) disponibles sur IBM Cloud dotés d’une API REST et de SDK (Software Develpment Kit) pour de nombreux langages actuels de programmation. Watson Assistant (development de chatbots) et Watson Discovery (utilisation intelligente de corpus de textes) font partie […]

Continue reading