Infrastructures

Une mémoire « computationnelle » pour assurer calcul et stockage

Share this post:

Le disque dur traditionnel est pris en étau entre le rouleau compresseur Flash et l’indétrônable bande qui commence à se faire une place sur les infrastructures de stockage des opérateurs de Cloud. Mais l’avenir devrait être plus disruptif, avec l’arrivée de la mémoire « computationnelle », qui rassemble calcul et stockage.

 

La mémoire Flash omniprésente

Le disque dur est aujourd’hui frontalement concurrencé par les unités de stockage Flash, qui grignotent rapidement ses parts de marché. Et pour cause ! À tarifs inchangés, la mémoire Flash propose une capacité en croissance constante. La mémoire récente enregistre en effet 4 bits par cellule, là où la génération précédente n’en inscrivait que 3. Cette nouvelle technologie est déjà utilisée dans des produits grand public, comme la gamme 860 QVO de Samsung.

IBM travaille à son adaptation aux spécificités du marché des entreprises. Elle est en effet délicate à exploiter, les composants acceptant un nombre limité d’écritures par cellule (et qui va en se réduisant à mesure que les cellules stockent plus d’informations). Il faut donc trouver des techniques pour augmenter la fiabilité, sans faire de compromis sur la capacité utile ou sur les performances. L’une des voies explorées consiste à placer une couche logicielle au-dessus des unités Flash, afin de les employer de manière plus intelligente. Une approche qui nécessite de disposer d’une expertise globale dans les systèmes de stockage.

 

La bande part à l’assaut du Cloud

Le disque dur est attaqué sur un autre front : l’enregistrement massif de données secondaires. Ses capacités de stockage arrivent à maturité et ne devraient plus progresser aussi rapidement que par le passé. Le disque dur doit faire face à une technologie dont la densité de stockage devrait croitre de plus de 30% chaque année, et avec un coût 10 fois inférieur : la bande.

IBM est aujourd’hui le seul spécialiste au monde à disposer d’équipes de recherche travaillant sur le futur de la bande. C’est aussi le seul acteur du marché à fabriquer des lecteurs de bandes (les autres constructeurs utilisant ces produits en OEM).  La raison de ce positionnement est simple : IBM est convaincu que la bande va rester le média le moins cher pour stocker des données secondaires.

Jusqu’alors, le marché de la bande était limité au backup. Tous les produits étaient conçus pour cet usage. IBM ne compte pas abandonner ce secteur, mais pense aussi aujourd’hui aux acteurs du monde du Cloud. La facture stockage de ces grandes entreprises tend en effet à exploser. Le coût de la bande positionne ce support comme une excellente alternative… moyennant quelques améliorations techniques en cours de développement.

 

Rendre la bande plus réactive grâce à l’IA

En effet, pour que la bande progresse dans le monde du Cloud, il est impératif de pouvoir accéder plus rapidement aux données stockées. Les librairies de bandes actuelles utilisent des robots, chargés d’insérer et de retirer les médias dans les lecteurs. L’Intelligence Artificielle (IA) peut aider à mieux organiser le travail des robots, et ainsi optimiser le temps d’accès aux données. En mettant en cache les informations à l’avance, il est possible d’y accéder sans latence.

L’IA va se charger de caractériser les données et d’examiner comment les utilisateurs y accèdent. Suivant les habitudes de chacun, l’IA mettra en cache les informations fréquemment accédées, ainsi que celles susceptibles d’être consultées ultérieurement. Une fois l’IA entrainée avec le jeu de données d’un client, la bande sera en mesure de combiner à la fois capacité, prix et vitesse. Particularité : cet apprentissage reste spécifique au système de stockage de l’opérateur de Cloud. Un élément qui lui permettra de fidéliser ses clients.

 

Rassembler calcul et stockage

Les avancées sur la mémoire Flash et sur la bande devraient se concrétiser d’ici 3 à 5 ans. Mais la suite se dessine déjà, avec la fusion entre calcul et stockage. Ceci se traduira par de nouveaux systèmes informatiques qui se rapprocheront davantage de notre source d’inspiration privilégiée : le cerveau.

Issu de millions d’années d’évolution et d’optimisation, le cerveau n’a pas choisi la voie consistant à séparer calcul et mémoire. Il en ira de même avec les systèmes informatiques du futur. Le transistor classique devrait céder la place au memristor, capable à la fois de stocker de l’information et d’y appliquer des opérations de base. C’est la mémoire computationnelle.

Ce travail de recherche a été détaillé  dans plusieurs publications scientifiques :

  • lors de la reconstruction d’une image compressée, un circuit de ce type a demandé 50 fois moins d’énergie que le meilleur composant dédié ;
  • sur de la corrélation de flux[1], la mémoire computationnelle s’est montrée 200 fois plus rapide qu’un système composé de deux processeurs et 4 GPUs haute-performance.

Le principe des neurones et synapses propre au cerveau devrait également être repris. Enfin, la dynamique des réseaux de neurones, qui transmettent des données par impulsion, sera aussi reproduite.

[1] Comparaison de jeux de données

 

Préparer le terrain pour la mémoire computationnelle

Il est essentiel de se préparer à l’arrivée de la mémoire computationnelle. Une tâche d’autant plus complexe que cette technologie fonctionne sur un mode analogique et non numérique. Il faudra donc aborder la problématique de la précision des calculs d’une manière différente.

Si des composants spécialisés ont déjà été testés avec succès, la mémoire computationnelle ne pourra prendre son essor que lorsqu’elle sera adaptée à des cas d’usage plus larges : IoT, IA, etc. IBM travaille d’ores et déjà à l’intégration de la mémoire computationnelle analogique dans les frameworks les plus courants relatifs à l’intelligence artificielle et au traitement de données.

Le stockage d’entreprise se concentre aujourd’hui sur les SSD, avec une montée notable de la bande. Demain, la mémoire computationnelle devrait permettre de lier stockage et calcul dans un tout nouveau type de système informatique.

 

Chef du département de recherches en Cloud & Computing Infrastructure au laboratoire d’IBM Research à Zurich.

More Infrastructures stories
21 avril 2022

IA, cyber-résilience et cloud hybride : l’IBM z16 accélère les transformations

Dévoilé le 5 avril 2022, l’IBM z16 a été conçu dans une logique d’accélération du parcours de nos clients vers le cloud hybride et l’intelligence artificielle (IA), avec des niveaux de sécurité des plus élevés. Le Mainframe IBM est au cœur des environnements cloud hybride. Il est reconnu par les deux tiers des entreprises du […]

Continue reading

10 mars 2022

Rugby, Quantique, Cybersécurité : les piliers d’une transformation réussie

La cybersécurité sera l’enjeu majeur des 10 prochaines années   Après 3 années passées dans les domaines de l’Internet des Objets, la Supply Chain et la Blockchain (traçabilité), je reviens avec plaisir dans l’univers de la Cybersécurité.   Force est de constater qu’avec la multiplication des objets connectés (IoT), la convergence des systèmes IT et […]

Continue reading

16 février 2022

Evolution du métier de développeur au travers d’un projet de chatbot

Alexis Flouw, développeur pour le Groupe IRCEM, parle de l’évolution de son métier au travers d’un projet de chatbot conçu avec IBM Garage. Il évoque son parcours et les trois dimensions qui participent à l’évolution de son métier : les technologies, l’organisation et le partage d’expérience. Après un parcours scolaire classique, j’ai suivi une formation […]

Continue reading