La virtualisation est une technologie qui consiste à créer des environnements virtuels à partir d’une seule machine physique, ce qui permet une utilisation plus efficace des ressources en les répartissant entre différents environnements informatiques.
Au moyen d’un logiciel, la virtualisation crée une couche d’abstraction au-dessus du matériel informatique, divisant les composants d’un seul système, tels que les processeurs, la mémoire, les réseaux et le stockage, en plusieurs machines virtuelles (VM). Chaque VM exécute son propre système d’exploitation (OS) et se comporte comme un ordinateur physique distinct, bien qu’elle partage le même matériel sous-jacent.
Aujourd’hui, la virtualisation est une pratique fondamentale dans l’architecture informatique des entreprises et un élément clé du cloud computing. Elle permet aux fournisseurs de services cloud (CSP) tels qu’IBM Cloud, Microsoft Azure, Google Cloud et Amazon Web Services (AWS) d’utiliser de manière optimale leur infrastructure informatique en vue de fournir des ressources évolutives. Pour les entreprises, cela signifie qu’elles achètent uniquement les ressources informatiques dont elles ont besoin, puis les adaptent de manière rentable à mesure que leur workload augmente, maximisant ainsi leur investissement.
Newsletter d'études
Découvrez les dernières études en matière d’IA, d’informatique quantique, de cloud hybride et plus encore, rédigées par les experts IBM avec notre newsletter mensuelle « Future Forward ». Consultez la Déclaration de confidentialité d’IBM.
Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.
Les débuts de la technologie de virtualisation remontent à 1964, lorsque IBM a lancé CP-40, un projet de recherche sur le partage du temps pour IBM System/360. CP-40 a ensuite évolué vers CP-67, qui a finalement influencé Unix, l’un des premiers systèmes d’exploitation multi-utilisateurs à temps partagé qui a ouvert la voie aux technologies de virtualisation modernes telles que les machines virtuelles. En 1972, IBM a annoncé son premier produit officiel de machine virtuelle, VM/370, pour System/370.
En 1998, VMware a développé un système d’exploitation x86 qui permettait de segmenter une seule machine en plusieurs machines virtuelles, chacune fonctionnant avec son propre système d’exploitation. En 1999, VMware a lancé Workstation 1.0, le premier produit commercial qui permettait aux utilisateurs d’exécuter plusieurs systèmes d’exploitation sous forme de machines virtuelles sur un seul ordinateur. Ce produit est devenu populaire auprès des développeurs de logiciels en raison de sa capacité à tester et à développer facilement des applications dans différents environnements OS.
Selon les prévisions de The Business Research Company, le marché des logiciels de virtualisation passera de 85,83 milliards de dollars en 2024 à 100,19 milliards de dollars en 2025, avec un taux de croissance annuel composé (TCAC) de 16,7 %1.
Les progrès réalisés dans les domaines de l’edge computing, de la conteneurisation, de l’adoption du cloud hybride et du multicloud, ainsi que l’attention croissante portée à la sécurité et à la conformité sont autant de facteurs qui contribuent à cette croissance. Parmi les autres tendances émergentes qui contribuent au marché de la virtualisation, on trouve l’intégration de l’Internet des objets (IdO), de l’intelligence artificielle (IA) et du machine learning (ML).
La virtualisation offre de nombreux avantages aux centres de données sur site et dans le cloud qui prennent en charge les opérations informatiques, notamment :
Avant la virtualisation, le personnel informatique attribuait une unité centrale (CPU) physique dédiée à chaque serveur d’applications, chaque application disposant ainsi d’un serveur distinct. Cette approche, qui privilégiait une application et un système d’exploitation par ordinateur, a été adoptée pour sa fiabilité. Cependant, chaque serveur physique était souvent sous-utilisé.
En revanche, la virtualisation de serveurs vous permet d’exécuter plusieurs applications, chacune avec sa propre machine virtuelle et son propre système d’exploitation, sur un seul serveur physique (généralement un serveur x86) sans sacrifier la fiabilité. Cette capacité maximise l’utilisation de la capacité de calcul du matériel physique et optimise l’utilisation des ressources.
Le remplacement des ordinateurs physiques par des machines virtuelles définies par logiciel facilite la gestion et l’application des politiques via des logiciels. Il est ainsi possible de créer des workflows automatisés dédiés à la gestion des services informatiques. Par exemple, les outils de déploiement et de configuration automatisés permettent aux administrateurs de définir des machines virtuelles et des applications en tant que services dans des modèles logiciels, qu’ils peuvent déployer de manière cohérente sans configuration manuelle.
De plus, les politiques de sécurité de la virtualisation peuvent appliquer des configurations de sécurité en fonction du rôle de la machine virtuelle. Ces politiques peuvent également augmenter l’efficacité des ressources en mettant hors service les machines virtuelles non utilisées, ce qui économise de l’espace et de la puissance de calcul.
Les pannes des systèmes d’exploitation et des applications peuvent entraîner des temps d’arrêt et perturber la productivité des utilisateurs. La virtualisation permet aux administrateurs d’exécuter plusieurs machines virtuelles redondantes en parallèle et d’effectuer un basculement entre elles en cas de problème. L’exécution de plusieurs serveurs physiques redondants serait beaucoup plus coûteuse.
La configuration du matériel pour chaque application peut prendre beaucoup de temps. Cependant, si le matériel est déjà en place, le provisionnement des machines virtuelles pour exécuter les applications est nettement plus rapide. Les logiciels de gestion des machines virtuelles peuvent désormais automatiser ce processus, et ainsi rationaliser les workflows.
La virtualisation optimise la reprise après sinistre en permettant une restauration rapide des services avec un temps d’arrêt minimal. Comme les machines virtuelles peuvent être facilement déplacées, répliquées ou sauvegardées, la restauration des systèmes à leur état opérationnel est plus rapide et plus efficace qu’avec les serveurs physiques traditionnels.
La virtualisation permet de réduire les coûts d’acquisition, de maintenance et de consommation d’énergie du matériel. La consolidation des serveurs physiques en machines virtuelles réduit le besoin de matériel supplémentaire, ce qui permet d’économiser à la fois des dépenses d’investissement et des dépenses d’exploitation.
Pour en savoir plus sur les avantages de la virtualisation, consultez l’article « Les 5 avantages de la virtualisation ».
La virtualisation s’appuie sur plusieurs composants clés pour créer et gérer des environnements virtuels. Chacun d’entre eux joue un rôle essentiel dans l’allocation efficace des ressources afin que plusieurs machines virtuelles puissent fonctionner simultanément sans interférence.
La machine physique, également appelée « machine hôte », est le matériel (par exemple un serveur ou un ordinateur) qui fournit les ressources CPU, de mémoire, de stockage et de réseau aux machines virtuelles.
Une machine virtuelle (VM) est un environnement virtuel qui simule un ordinateur physique sous forme logicielle. Les VM sont généralement appelées « invités », une ou plusieurs machines « invitées » fonctionnant sur une machine hôte.
Les machines virtuelles se composent généralement de plusieurs fichiers, notamment la configuration, le stockage pour le disque dur virtuel et d’autres dépendances. En partageant les ressources système entre les machines virtuelles, la virtualisation offre une évolutivité à la demande, des gains d’efficacité et des économies financières.
Le terme « hyperviseur » désigne la couche logicielle qui coordonne les VM. L’hyperviseur sert d’interface entre la VM et le matériel physique sous-jacent, garantissant que chacune a accès aux ressources physiques dont elle a besoin pour fonctionner. Il veille également à ce que les VM n’interfèrent pas entre elles en empiétant sur l’espace mémoire ou les cycles de calcul de chacune.
Il existe deux types d’hyperviseurs :
Les hyperviseurs de type 2 s’exécutent comme une application sur un système d’exploitation existant. Généralement utilisés sur les terminaux pour exécuter des systèmes d’exploitation alternatifs, ils entraînent une surcharge au niveau des performances, car ils doivent utiliser le système d’exploitation hôte pour accéder aux ressources matérielles sous-jacentes et les coordonner.
Au-delà des serveurs, de nombreux types d’infrastructures informatiques peuvent être virtualisés afin d’offrir des avantages significatifs aux responsables informatiques en particulier et à l’entreprise dans son ensemble. Ces types de virtualisation sont les suivants :
La virtualisation de postes de travail vous permet d’exécuter plusieurs systèmes d’exploitation de poste de travail, chacun dans sa propre machine virtuelle sur le même ordinateur.
Il existe deux types de virtualisation de postes de travail :
Pour plus d’informations sur les postes de travail virtuels, consultez l’article « Qu’est-ce que le Desktop-as-a-Service (DaaS) ? ».
La virtualisation de réseau utilise un logiciel pour créer une « vue » du réseau que l’administrateur peut utiliser afin de le gérer à partir d’une console unique. Elle fait abstraction des éléments et des fonctions matériels (connexions, commutateurs, routeurs, etc.) et les transforme en un logiciel fonctionnant sur un hyperviseur. L’administrateur du réseau virtuel peut modifier et contrôler ces éléments sans toucher aux composants physiques sous-jacents, ce qui simplifie considérablement la gestion du réseau.
Les types de virtualisation de réseau comprennent :
La virtualisation du stockage permet d’accéder à tous les dispositifs de stockage du réseau, qu’ils soient installés sur des serveurs distincts ou des unités de stockage autonomes, et de les gérer comme un seul et même dispositif de stockage. Plus précisément, la virtualisation du stockage consolide tous les blocs de stockage en un seul pool partagé à partir duquel ils peuvent être attribués à n’importe quelle machine virtuelle du réseau selon les besoins. La virtualisation du stockage facilite le provisionnement du stockage pour les machines virtuelles et permet d’utiliser au maximum tout le stockage disponible sur le réseau.
Les fournisseurs de services cloud s’appuient sur la virtualisation du stockage pour offrir des services de stockage cloud, notamment le stockage par blocs, le stockage d’objets et le stockage de fichiers.
Les entreprises modernes stockent les données provenant de multiples applications en utilisant plusieurs formats de fichiers dans de nombreux emplacements, allant du cloud aux systèmes matériels et logiciels sur site. La virtualisation des données permet à n’importe quelle application d’accéder à toutes ces données, indépendamment de leur source, de leur format ou de leur emplacement.
Les outils de virtualisation des données créent une couche logicielle entre les applications qui accèdent aux données et les systèmes qui les stockent. Cette couche traduit la demande ou la requête de données d’une application selon les besoins et renvoie des résultats qui peuvent couvrir plusieurs systèmes. La virtualisation des données permet de briser les silos de données lorsque d’autres types d’intégration ne sont pas réalisables, souhaitables ou abordables.
La virtualisation d’applications permet d’exécuter des logiciels d’application sans les installer directement sur le système d’exploitation de l’utilisateur. Cette technologie diffère de la virtualisation complète de postes de travail, car seule l’application s’exécute dans un environnement virtuel, le système d’exploitation de l’appareil de l’utilisateur final fonctionnant comme d’habitude.
Il existe trois types de virtualisation d’applications :
La virtualisation de centres de données transforme la plupart du matériel d’un centre de données en logiciel, ce qui permet à un administrateur de diviser un seul centre de données physique en plusieurs centres de données virtuels pour différents clients.
Chaque client peut accéder à sa propre infrastructure en tant que service (IaaS), qui s’exécute sur le même matériel physique sous-jacent. Les centres de données virtuels offrent une passerelle facile vers le cloud computing, permettant aux entreprises de mettre rapidement en place un environnement de centre de données complet sans avoir à acheter de matériel d’infrastructure.
La virtualisation de CPU est la technologie à la base des hyperviseurs, des machines virtuelles et des différents systèmes d’exploitation. Elle permet de diviser un seul CPU en plusieurs CPU virtuels pouvant être utilisés par plusieurs machines virtuelles.
Au départ, la virtualisation de CPU était entièrement définie par logiciel, mais de nombreux processeurs actuels intègrent des jeux d’instructions étendus qui prennent en charge la virtualisation de CPU, ce qui améliore les performances des machines virtuelles.
Un processeur graphique (GPU) est un processeur multicœur spécial qui améliore les performances informatiques globales en prenant en charge les traitements graphiques ou mathématiques lourds. La virtualisation de GPU permet à plusieurs machines virtuelles d’utiliser tout ou partie de la puissance de traitement d’un seul GPU pour accélérer les applications vidéo, d’IA et autres applications gourmandes en ressources graphiques ou mathématiques.
Les deux principaux types de GPU dans les environnements virtualisés sont les suivants :
Linux inclut son propre hyperviseur, la machine virtuelle basée sur le noyau (KVM), qui prend en charge les extensions de processeur de virtualisation d’Intel et d’AMD en vue de créer des machines virtuelles x86 à partir d’un système d’exploitation hôte Linux.
Linux est un système d’exploitation open source hautement personnalisable. Vous pouvez créer des machines virtuelles exécutant des versions de Linux adaptées à des workloads spécifiques ou des versions renforcées en matière de sécurité pour les applications plus sensibles.
En virtualisant les serveurs, le stockage et d’autres ressources physiques des centres de données, les fournisseurs de cloud computing peuvent offrir toute une gamme de services à leurs clients, notamment :
Pour en savoir plus sur ces modèles de services cloud, consultez notre page thématique : « IaaS, PaaS et SaaS : quelle est la différence ? ».
La virtualisation de serveurs reproduit un ordinateur entier au niveau matériel, qui exécute ensuite un système d’exploitation complet. Ce dernier exécute une seule application. Cette approche est plus efficace que l’absence totale de virtualisation, mais elle duplique tout de même du code et des services inutiles pour chaque application que vous souhaitez exécuter.
Les conteneurs suivent une approche différente. Ils partagent un noyau de système d’exploitation sous-jacent et exécutent uniquement l’application et ses dépendances, telles que les bibliothèques logicielles et les variables d’environnement. Cette fonctionnalité rend les conteneurs plus petits et plus rapides à déployer.
Consultez l’article de blog « Conteneurs ou machines virtuelles : quelle est la différence ? » pour une comparaison plus détaillée.
La vidéo « Tout sur la conteneurisation » présente les principes de base de la conteneurisation et la compare à la virtualisation via des machines virtuelles.
La virtualisation offre de nombreux avantages en matière de sécurité. Par exemple, les machines virtuelles infectées par des logiciels malveillants peuvent être restaurées à un moment où elles n’étaient pas infectées et étaient stables (on appelle cela un « instantané ») ; elles peuvent également être plus facilement supprimées et recréées. Il n’est pas toujours possible de désinfecter un système d’exploitation non virtualisé, car les logiciels malveillants sont souvent profondément intégrés dans les composants centraux du système d’exploitation et persistent au-delà des restaurations du système.
Les contrôles d’accès, les mises à jour régulières, la segmentation du réseau et le chiffrement font partie des fonctionnalités de sécurité permettant de protéger les machines virtuelles et le matériel physique sous-jacent. De plus, les solutions de sécurité logicielles fournissent des outils de surveillance des machines virtuelles qui assurent la conformité, détectent les menaces en temps réel, etc.
De nombreuses entreprises proposent des solutions de virtualisation spécialisées adaptées à différents cas d’utilisation, notamment la virtualisation de serveurs, de postes de travail et d’applications. Voici quelques-unes des solutions les plus connues sur le marché :
Red Hat OpenShift on IBM Cloud est une plateforme de conteneurs OpenShift entièrement gérée.
Virtualisation de stockage sécurisée, fiable et efficace pour les environnements VMware avec IBM Spectrum Virtualize.
Trouvez la solution d’infrastructure cloud adaptée aux besoins de votre entreprise et ajustez les ressources en fonction de la demande.