Infrastructures

Une mémoire « computationnelle » pour assurer calcul et stockage

Share this post:

Le disque dur traditionnel est pris en étau entre le rouleau compresseur Flash et l’indétrônable bande qui commence à se faire une place sur les infrastructures de stockage des opérateurs de Cloud. Mais l’avenir devrait être plus disruptif, avec l’arrivée de la mémoire « computationnelle », qui rassemble calcul et stockage.

 

La mémoire Flash omniprésente

Le disque dur est aujourd’hui frontalement concurrencé par les unités de stockage Flash, qui grignotent rapidement ses parts de marché. Et pour cause ! À tarifs inchangés, la mémoire Flash propose une capacité en croissance constante. La mémoire récente enregistre en effet 4 bits par cellule, là où la génération précédente n’en inscrivait que 3. Cette nouvelle technologie est déjà utilisée dans des produits grand public, comme la gamme 860 QVO de Samsung.

IBM travaille à son adaptation aux spécificités du marché des entreprises. Elle est en effet délicate à exploiter, les composants acceptant un nombre limité d’écritures par cellule (et qui va en se réduisant à mesure que les cellules stockent plus d’informations). Il faut donc trouver des techniques pour augmenter la fiabilité, sans faire de compromis sur la capacité utile ou sur les performances. L’une des voies explorées consiste à placer une couche logicielle au-dessus des unités Flash, afin de les employer de manière plus intelligente. Une approche qui nécessite de disposer d’une expertise globale dans les systèmes de stockage.

 

La bande part à l’assaut du Cloud

Le disque dur est attaqué sur un autre front : l’enregistrement massif de données secondaires. Ses capacités de stockage arrivent à maturité et ne devraient plus progresser aussi rapidement que par le passé. Le disque dur doit faire face à une technologie dont la densité de stockage devrait croitre de plus de 30% chaque année, et avec un coût 10 fois inférieur : la bande.

IBM est aujourd’hui le seul spécialiste au monde à disposer d’équipes de recherche travaillant sur le futur de la bande. C’est aussi le seul acteur du marché à fabriquer des lecteurs de bandes (les autres constructeurs utilisant ces produits en OEM).  La raison de ce positionnement est simple : IBM est convaincu que la bande va rester le média le moins cher pour stocker des données secondaires.

Jusqu’alors, le marché de la bande était limité au backup. Tous les produits étaient conçus pour cet usage. IBM ne compte pas abandonner ce secteur, mais pense aussi aujourd’hui aux acteurs du monde du Cloud. La facture stockage de ces grandes entreprises tend en effet à exploser. Le coût de la bande positionne ce support comme une excellente alternative… moyennant quelques améliorations techniques en cours de développement.

 

Rendre la bande plus réactive grâce à l’IA

En effet, pour que la bande progresse dans le monde du Cloud, il est impératif de pouvoir accéder plus rapidement aux données stockées. Les librairies de bandes actuelles utilisent des robots, chargés d’insérer et de retirer les médias dans les lecteurs. L’Intelligence Artificielle (IA) peut aider à mieux organiser le travail des robots, et ainsi optimiser le temps d’accès aux données. En mettant en cache les informations à l’avance, il est possible d’y accéder sans latence.

L’IA va se charger de caractériser les données et d’examiner comment les utilisateurs y accèdent. Suivant les habitudes de chacun, l’IA mettra en cache les informations fréquemment accédées, ainsi que celles susceptibles d’être consultées ultérieurement. Une fois l’IA entrainée avec le jeu de données d’un client, la bande sera en mesure de combiner à la fois capacité, prix et vitesse. Particularité : cet apprentissage reste spécifique au système de stockage de l’opérateur de Cloud. Un élément qui lui permettra de fidéliser ses clients.

 

Rassembler calcul et stockage

Les avancées sur la mémoire Flash et sur la bande devraient se concrétiser d’ici 3 à 5 ans. Mais la suite se dessine déjà, avec la fusion entre calcul et stockage. Ceci se traduira par de nouveaux systèmes informatiques qui se rapprocheront davantage de notre source d’inspiration privilégiée : le cerveau.

Issu de millions d’années d’évolution et d’optimisation, le cerveau n’a pas choisi la voie consistant à séparer calcul et mémoire. Il en ira de même avec les systèmes informatiques du futur. Le transistor classique devrait céder la place au memristor, capable à la fois de stocker de l’information et d’y appliquer des opérations de base. C’est la mémoire computationnelle.

Ce travail de recherche a été détaillé  dans plusieurs publications scientifiques :

  • lors de la reconstruction d’une image compressée, un circuit de ce type a demandé 50 fois moins d’énergie que le meilleur composant dédié ;
  • sur de la corrélation de flux[1], la mémoire computationnelle s’est montrée 200 fois plus rapide qu’un système composé de deux processeurs et 4 GPUs haute-performance.

Le principe des neurones et synapses propre au cerveau devrait également être repris. Enfin, la dynamique des réseaux de neurones, qui transmettent des données par impulsion, sera aussi reproduite.

[1] Comparaison de jeux de données

 

Préparer le terrain pour la mémoire computationnelle

Il est essentiel de se préparer à l’arrivée de la mémoire computationnelle. Une tâche d’autant plus complexe que cette technologie fonctionne sur un mode analogique et non numérique. Il faudra donc aborder la problématique de la précision des calculs d’une manière différente.

Si des composants spécialisés ont déjà été testés avec succès, la mémoire computationnelle ne pourra prendre son essor que lorsqu’elle sera adaptée à des cas d’usage plus larges : IoT, IA, etc. IBM travaille d’ores et déjà à l’intégration de la mémoire computationnelle analogique dans les frameworks les plus courants relatifs à l’intelligence artificielle et au traitement de données.

Le stockage d’entreprise se concentre aujourd’hui sur les SSD, avec une montée notable de la bande. Demain, la mémoire computationnelle devrait permettre de lier stockage et calcul dans un tout nouveau type de système informatique.

 

Chef du département de recherches en Cloud & Computing Infrastructure au laboratoire d’IBM Research à Zurich.

More Infrastructures stories
22 juillet 2020

IBM peut-il être un acteur de la souveraineté numérique française ?

  La crise du Covid a démontré la fragilité de nos économies modernes, dépossédée au fil des années du contrôle de leurs moyens de productions critiques et le retour à une économie souveraine, solidaire et écologique est nécessaire. Souveraine signifie indépendante et maitresse de ses moyens, notamment de ses données, véritable « carburant » de l’économie. Comment […]

Continue reading

9 juillet 2020

Gouverner les données pour mieux les exploiter et les valoriser

  Une étude menée en janvier dernier par IDC, sur « l’Observatoire de la Gouvernance des données », montre que les entreprises accordent de plus en plus d’importance à la valorisation des données. Preuve en est, trois quarts des 160 organisations interrogées en font une priorité stratégique pour les deux ans à venir. Dans ce contexte, […]

Continue reading

11 juin 2020

Les mainframes IBM prêts pour la révolution des conteneurs

La solution Red Hat OpenShift est maintenant disponible sur les IBM Z et IBM LinuxONE. Ces systèmes s’intègrent ainsi pleinement aux architectures multicloud hybrides de nouvelle génération, où ils apporteront de multiples avantages : performances, sécurité et fiabilité. La technologie zCX (z/OS Container Extensions) permettait déjà de déployer des conteneurs Docker sur les machines fonctionnant sous […]

Continue reading