Accueil Thèmes Conteneurisation Qu’est-ce que la conteneurisation ?
Découvrir Red Hat OpenShift on IBM Cloud Inscrivez-vous pour recevoir les mises à jour du cloud
Illustration avec collage de pictogrammes représentant un écran d’ordinateur, un serveur, des nuages et des points

Publication : 20 mai 2024
Contributeurs : Stephanie Susnjara, Ian Smalley

Qu’est-ce que la conteneurisation ?

La conteneurisation consiste à regrouper le code logiciel avec uniquement les bibliothèques du système d’exploitation (OS) et les dépendances nécessaires pour exécuter le code afin de créer un seul exécutable léger, appelé conteneur , qui s’exécute de manière cohérente sur n’importe quelle infrastructure.

Avec une meilleure portabilité et une meilleure efficacité des ressources que les  virtual machines (VM), les conteneurs sont devenus les unités de calcul de facto des applications  cloud natives modernes.

La conteneurisation permet aux développeurs de créer et de déployer des applications plus rapidement et en toute sécurité. Avec les méthodes traditionnelles, les développeurs écrivent du code dans un environnement informatique spécifique qui, lorsqu’il est transféré vers un nouvel emplacement, engendre souvent des bogues et des erreurs. Par exemple, cela peut se produire lorsqu’un développeur transfère du code d’un ordinateur de bureau vers une machine virtuelle ou d’un système d’exploitation Linux vers un système d’exploitation Windows. La conteneurisation élimine ce problème en regroupant le code de l’application avec les fichiers de configuration, les bibliothèques et les dépendances nécessaires à son fonctionnement. Ce package logiciel unique ou « conteneur » est extrait du système d’exploitation hôte. Par conséquent, il est autonome et devient portable, c'est-à-dire qu'il peut fonctionner sur n'importe quelle plateforme ou n'importe quel cloud, sans aucun problème.

Le concept de conteneurisation et d'isolation des procédés remonte à plusieurs décennies. Cependant, l'émergence en 2013 de l'open source Docker, une norme industrielle pour les conteneurs dotée de developer tools simples et d'une approche d'emballage universelle, a accéléré l'adoption de cette technologie. Aujourd'hui, les entreprises utilisent de plus en plus la conteneurisation pour créer de nouvelles applications et moderniser les applications existantes pour le cloud. 

Selon un rapport de Forrester1, 74 % des décideurs américains en matière d’infrastructure affirment que leurs entreprises adoptent les conteneurs au sein d’une plateforme en tant que service (PaaS), dans un environnement sur site ou dans le cloud public

Les conteneurs sont « légers », ce qui signifie qu'ils partagent le noyau du système d'exploitation de la machine et qu'ils n'ont pas à associer un système d'exploitation à chaque application. Les conteneurs ont une capacité intrinsèquement plus faible que les machines virtuelles et nécessitent moins de temps de démarrage. Cette capacité permet d'exécuter beaucoup plus de conteneurs sur la même capacité de calcul qu'une seule machine virtuelle. Cette capacité permet d'améliorer l'efficacité des serveurs et, par conséquent, de réduire les coûts des serveurs et des licences.

Plus important encore, la conteneurisation permet aux applications d’être « écrites une seule fois et exécutées n’importe où » dans les centres de données sur site, le cloud hybride et les environnements multicloud

Cette portabilité accélère le développement, empêche l'enfermement propriétaire de cloud et offre d'autres avantages notables tels que l'isolation des pannes, la facilité de gestion, la simplification de la sécurité, etc.

La vidéo suivante fournit de plus amples informations sur la conteneurisation :

Exploitez pleinement votre cloud hybride

Connectez et intégrez vos systèmes pour préparer votre infrastructure à l’IA.

Contenu connexe

Obtenir le guide sur la modernisation des applications

Architecture de conteneurisation

L'architecture de conteneurisation se compose de quatre couches de composants essentielles.

Infrastructure informatique sous-jacente

L' infrastructure informatique sous-jacente est une couche de base qui comprend les ressources de calcul physiques (par exemple, un ordinateur de bureau, un bare metal server).

Système d'exploitation hôte

Cette couche s’exécute sur la machine virtuelle ou physique. Le système d’exploitation gère les ressources système et fournit un environnement d’exécution pour les moteurs de conteneurs. 

Image de conteneur

Également appelé moteur d'exécution, le moteur de conteneur fournit l'environnement d'exécution des images de conteneur (modèles en lecture seule contenant des instructions pour la création d'un conteneur). Les moteurs de conteneurs s'exécutent au-dessus du système d'exploitation hôte et virtualisent les ressources pour les applications conteneurisées. 

Applications conteneurisées

Cette dernière couche se compose des applications logicielles exécutées dans des conteneurs.

Comment fonctionne la conteneurisation ?

Les conteneurs encapsulent une application en un seul paquet exécutable de logiciel qui regroupe le code de l'application avec tous les fichiers de configuration, bibliothèques et dépendances associés nécessaires à son exécution.

Les applications conteneurisées sont « isolées », ce qui signifie qu’elles ne regroupent pas une copie du système d’exploitation. À la place, une exécution de conteneur open source ou un moteur de conteneur (comme le moteur d'exécution Docker) est installé sur le système d'exploitation de l'hôte et devient le conduit permettant aux conteneurs de partager un système d'exploitation avec d'autres conteneurs sur le même système informatique.

Les autres couches de conteneurs, comme les fichiers binaires communs (bins) et les bibliothèques, peuvent être partagées entre plusieurs conteneurs. Cette fonctionnalité élimine les frais généraux liés à l’exécution d’un système d’exploitation dans chaque application et réduit la capacité des conteneurs et leur permet de démarrer plus rapidement que les machines virtuelles, ce qui améliore l’efficacité des serveurs. L'isolation des applications en tant que conteneurs réduit également le risque qu'un code malveillant dans un conteneur ait un impact sur d'autres conteneurs ou envahisse le système hôte.

L’abstraction du système d’exploitation hôte rend les applications conteneurisées portables et capables de s’exécuter uniformément et de manière cohérente sur n’importe quelle plateforme ou cloud. Les conteneurs peuvent être facilement transportés d’un ordinateur de bureau à une machine virtuelle (VM) ou d’un système d’exploitation Linux à un système d’exploitation Windows. Les conteneurs s’exécutent également de manière cohérente sur des infrastructures virtualisées ou des bare metal servers traditionnels, sur site ou dans un centre de données cloud. 

La conteneurisation permet aux développeurs de logiciels de créer et de déployer des applications plus rapidement et de manière plus sécurisée, qu’il s’agisse d’une application monolithique traditionnelle (une application logicielle à un seul niveau) ou d’une application modulaire reposant sur une architecture de microservices. Les développeurs peuvent créer de toutes pièces de nouvelles applications basées sur le cloud sous forme de microservices conteneurisés, divisant ainsi une application complexe en une série de services plus petits, spécialisés et gérables. Ils peuvent également reconditionner les applications existantes dans des conteneurs (ou des microservices conteneurisés) qui utilisent les ressources de traitement plus efficacement.

Virtualisation et conteneurisation

Les conteneurs sont souvent comparés aux machines virtuelles (VM), car ces deux technologies permettent de réaliser des économies de calcul significatives en permettant à plusieurs types de logiciels (basés sur Linux ou Windows) de s’exécuter dans un seul environnement. 

La virtualisation utilise un hyperviseur, une couche logicielle placée sur un ordinateur ou un serveur physique qui permet à l'ordinateur physique de séparer son système d'exploitation et ses applications de son matériel. La technologie de virtualisation permet à plusieurs systèmes d'exploitation et applications logicielles de fonctionner simultanément et de partager les ressources d'un seul ordinateur physique ou machine hôte (par exemple, le processeur, le stockage et la mémoire). Par exemple, une organisation informatique peut faire fonctionner à la fois Windows et Linux ou plusieurs versions d'un système d'exploitation, ainsi que diverses applications sur le même serveur. 

Chaque application et son système de fichiers, ses bibliothèques et ses autres dépendances, y compris une copie du système d’exploitation (OS), sont regroupés sous la forme d’une machine virtuelle. L’exécution de plusieurs machines virtuelles sur une seule machine physique permet de réaliser d’importantes économies en termes de coûts d’investissement, d’exploitation et d’énergie.

La conteneurisation, quant à elle, utilise les ressources informatiques de manière encore plus efficace. Un conteneur crée un package logiciel exécutable unique qui regroupe le code de l’application avec toutes ses dépendances nécessaires à son exécution. Contrairement aux machines virtuelles, cependant, les conteneurs ne constituent pas une copie du système d’exploitation. Au lieu de cela, le moteur d'exécution des conteneurs est installé sur le système d'exploitation du système hôte, ou « système d'exploitation hôte », devenant ainsi le canal par lequel tous les conteneurs du système informatique partagent le même système d'exploitation.

Les conteneurs sont souvent appelés « légers » : ils partagent le noyau du système d'exploitation de la machine et ne nécessitent pas le surcoût d'associer un système d'exploitation à chaque application (comme c'est le cas avec une machine virtuelle). D'autres couches de conteneurs (bacs et bibliothèques communs) peuvent également être partagées entre plusieurs conteneurs, ce qui rend les conteneurs intrinsèquement plus petits en capacité qu'une machine virtuelle et plus rapides à démarrer. Plusieurs conteneurs peuvent s'exécuter sur la même capacité de calcul qu'une seule machine virtuelle, ce qui permet d'améliorer d'autant plus l'efficacité des serveurs et de réduire les coûts de serveur et de licence.

La vidéo suivante présente une analyse plus approfondie des conteneurs par rapport aux machines virtuelles :

Avantages de la conteneurisation

La conteneurisation offre des avantages significatifs aux développeurs et aux équipes de développement, en particulier dans les domaines suivants.

Portabilité

Un conteneur crée un ensemble de logiciels exécutables qui est séparé du système d'exploitation hôte (qui n'est pas lié ou dépendant de celui-ci). Elle est donc portable et peut fonctionner de manière uniforme et cohérente sur n'importe quelle plateforme ou cloud. 

Agilité

Le développement et le déploiement de conteneurs augmentent l’agilité et permettent aux applications de fonctionner dans les environnements cloud qui répondent le mieux aux besoins de l’entreprise.  

Rapidité

Les conteneurs sont « légers », ce qui signifie qu’ils partagent le noyau du système d’exploitation (OS) de la machine. Cette fonctionnalité permet non seulement d'améliorer l'efficacité des serveurs, mais aussi de réduire les coûts liés aux serveurs et aux licences tout en accélérant les temps de démarrage, car il n'y a pas de système d'exploitation à démarrer.

Isolement des pannes

Chaque application conteneurisée est isolée et fonctionne indépendamment des autres. La défaillance d'un conteneur n'affecte pas le fonctionnement continu des autres conteneurs. Les équipes de développement peuvent identifier et corriger tout problème technique au sein d'un conteneur sans aucun temps d'arrêt dans les autres conteneurs. De plus, le moteur de conteneurs peut tirer parti des techniques d'isolation de sécurité du système d'exploitation, comme le contrôle d'accès SELinux, pour isoler les défauts au sein des conteneurs.

Efficacité

Les logiciels exécutés dans des environnements conteneurisés partagent le noyau du système d'exploitation de la machine, et les couches d'application au sein d'un conteneur peuvent être partagées entre les conteneurs. Ainsi, les conteneurs ont intrinsèquement une capacité plus petite qu’une VM et nécessitent moins de temps de démarrage, ce qui permet à beaucoup plus de conteneurs de s’exécuter sur la même capacité de calcul qu’une seule VM. Cette fonctionnalité augmente l'optimisation des ressources et améliore l'efficacité des serveurs, réduisant ainsi les coûts de serveur et de licence.

Facilité de gestion

La conteneurisation, en particulier lorsqu'elle est associée à une plateforme d'orchestration de conteneurs comme Kubernetes, automatise et simplifie le provisionnement, le déploiement et la gestion des applications conteneurisées.

Sécurité

L'isolation des applications en tant que conteneurs empêche intrinsèquement l'invasion de codes malveillants d'affecter d'autres conteneurs ou le système hôte. En outre, des autorisations de sécurité peuvent être définies pour empêcher automatiquement les composants indésirables d'entrer dans les conteneurs ou pour limiter les communications avec les ressources inutiles.

Plateformes et outils de conteneurisation

Avec le développement des solutions basées sur les conteneurs, le besoin de normes concernant la technologie des conteneurs et l'approche de l'empaquetage du code logiciel est apparu. L'Open Container Initiative (OCI)2, un projet Linux créé en juin 2015 par Docker et d'autres leaders de l'industrie, est apparu comme un moyen de promouvoir des normes et spécifications communes, minimales et ouvertes autour de la technologie des conteneurs. Depuis, l’OCI a contribué à élargir le choix des moteurs open source afin que les utilisateurs puissent éviter l’enfermement propriétaire. Les développeurs peuvent également profiter des technologies certifiées OCI qui leur permettent de créer des applications conteneurisées à l’aide d’un ensemble diversifié d’outils DevOps et de les exécuter de manière cohérente sur l’infrastructure de leur choix.

Pour dissiper toute confusion, Docker fait également référence à Docker, Inc.3, la société qui développe des outils de productivité basés sur la technologie de conteneurs Docker. Le terme désigne également le projet open source Docker 4 auquel contribuent Docker, Inc. et de nombreuses autres organisations et personnes.

Bien que Docker soit la technologie de moteur de conteneur la plus connue et la plus utilisée, l’écosystème dans son ensemble s’est standardisé sur containerd et d’autres alternatives comme CoreOS rkt, Mesos Containerizer, LXC Linux Containers, OpenVZ et crio-d.

Orchestration de conteneurs avec Kubernetes

Aujourd'hui, une organisation peut avoir des centaines ou des milliers de conteneurs, une quantité qu'il serait presque impossible pour les équipes de gérer manuellement. C’est là que l’orchestration de conteneurs entre en jeu.

Une plateforme d'orchestration de conteneurs planifie et automatise la gestion comme le déploiement de conteneurs, la mise en réseau, l' équilibrage de charge, l'évolutivité et la disponibilité.

Kubernetes, l'outil d'orchestration de conteneurs le plus populaire actuellement, est une technologie open source (initialement open source par Google, sur la base de son projet interne appelé Borg) qui automatise les fonctions de conteneur Linux. Kubernetes fonctionne avec de nombreux moteurs de conteneurs, comme Docker Engine. Il fonctionne également avec tout système de conteneurs conforme aux normes de l'Open Container Initiative (OCI) pour les formats d'images de conteneurs et les moteurs d'exécution.

Bien que Kubernetes soit la norme du secteur, d'autres plateformes populaires d'orchestration de conteneurs incluent Apache Mesos, Nomad et Docker Swarm.

Pour en savoir plus sur l’orchestration de conteneurs, regardez cette vidéo qui explique le fonctionnement de Kubernetes :

Conteneurisation et cloud computing
Microservices et conteneurisation

La conteneurisation fait partie intégrante de la modernisation des applications. Ce processus fait référence à la transformation d’applications monolithiques (héritées) en applications cloud natives basées sur une architecture de microservices conçue pour s’intégrer dans n’importe quel environnement cloud.

Les microservices constituent une approche supérieure du développement et de la gestion d’applications par rapport au modèle monolithique précédent qui combine une application logicielle avec l’interface utilisateur associée et la base de données sous-jacente en une seule unité sur une plateforme à serveur unique. Avec les microservices, une application complexe est divisée en une série de services plus petits et plus spécialisés, chacun ayant sa propre base de données et sa propre logique métier. Les microservices communiquent via des interfaces communes (telles que les API) et des interfaces REST (telles que HTTP). En utilisant des microservices, les équipes de développement peuvent se concentrer sur la mise à jour de zones spécifiques d’une application sans l’affecter dans son ensemble, ce qui accélère le développement, les tests et le déploiement.

Les concepts derrière les microservices et la conteneurisation sont similaires. Les deux sont des pratiques de développement logiciel qui transforment essentiellement les applications en ensembles de services ou de composants plus petits, portables, évolutifs, efficaces et plus faciles à gérer. 

De plus, les microservices et la conteneurisation fonctionnent bien lorsqu'ils sont utilisés ensemble. Les conteneurs fournissent une encapsulation légère de toute application, qu'il s'agisse d'un monolithe traditionnel ou d'un microservice modulaire. Un microservice, développé dans un conteneur, bénéficie alors de tous les avantages inhérents à la conteneurisation, tels que la portabilité.

Dans l’ensemble, les conteneurs, les microservices et le cloud computing ont fusionné, portant le développement et la livraison des applications à un nouveau niveau. Ces technologies simplifient les workflows DevOps et prennent en charge les pipelines d'intégration continue et de livraison continue (CI/CD) pour accélérer le développement logiciel. Ces approches de nouvelle génération ont apporté agilité, efficacité et fiabilité au cycle de vie de développement logiciel, conduisant à une livraison plus rapide des applications conteneurisées et à des améliorations pour les utilisateurs et le marché.

Migration vers le cloud et conteneurisation

Les organisations continuent de migrer vers le cloud, où les utilisateurs peuvent développer des applications rapidement et efficacement. La conteneurisation est devenue un cas d’utilisation métier essentiel pour la migration vers le cloud, le processus de déplacement des données, des applications et des workloads d'un centre de données sur site vers une infrastructure cloud ou d'un environnement cloud à un autre.

La migration vers le cloud est une partie essentielle de l'environnement de cloud hybride d'une organisation, qui combine des services de cloud sur site, publics et privés pour créer une infrastructure informatique unique, flexible et rentable qui prend en charge et automatise la gestion du workload dans les environnements cloud.

Cloud hybride et conteneurisation

Aujourd'hui, les applications et données cloud sont accessibles depuis n'importe quel appareil connecté à Internet, ce qui permet aux membres de l'équipe de travailler à distance et en déplacement. Les fournisseurs de services cloud (CSP), tels qu’Amazon Web Services (AWS), Google Cloud Services, IBM Cloud ou Microsoft Azure, gèrent l'infrastructure sous-jacente, ce qui permet aux organisations d'économiser les coûts des serveurs et d'autres équipements et fournit également des sauvegardes réseau automatisées pour une fiabilité accrue. Les infrastructures cloud évoluent à la demande et ajustent dynamiquement les ressources informatiques, la capacité et l'infrastructure en fonction de l'évolution des besoins en charge. De plus, les CSP mettent régulièrement à jour leurs offres, donnant aux utilisateurs un accès continu aux dernières technologies innovantes, telles que l'IA générative.

Conteneurs à la demande (CaaS)

La plupart des principaux fournisseurs de services cloud proposent des conteneurs en tant que service (CaaS). Essentiellement un sous-ensemble de l’infrastructure en tant que service (IaaS), le CaaS se situe entre l’IaaS et la plateforme en tant que service (PaaS) dans la pile de cloud computing, offrant un équilibre entre le contrôle offert par l’IaaS et la simplicité du PaaS.

Le CaaS fournit une plateforme basée sur le cloud sur laquelle les utilisateurs peuvent rationaliser les processus de virtualisation et de gestion des conteneurs. CaaS fournit également des environnements d’exécution de conteneurs, des couches d’orchestration et une gestion du stockage persistant. En 2022, le marché mondial du CaaS était évalué à près de 2 milliards de dollars.5 

Conteneurisation ou sans serveur

L'informatique sans serveur (« serverless ») est un modèle de développement et d’exécution d’applications qui permet aux développeurs de générer et d’exécuter du code sans mettre en place ni gérer de serveurs ou d’infrastructure backend.

Dans le cas de l’informatique sans serveur, le fournisseur de services cloud alloue des ressources machine à la demande, en maintenant les serveurs pour le compte de ses clients. Plus précisément, le développeur et le CSP gèrent l'approvisionnement de l'infrastructure cloud nécessaire à l'exécution du code et la mise à l'échelle de l'infrastructure à la hausse et à la baisse à la demande selon les besoins. Le fournisseur adhère à un modèle de tarification à l'utilisation.

L’informatique sans serveur peut améliorer la productivité des développeurs en permettant aux équipes de se concentrer sur l’écriture de code, et non sur la gestion de l’infrastructure. En revanche, les conteneurs offrent plus de contrôle et de flexibilité, ce qui peut aider à gérer les applications existantes et à les migrer vers le cloud. 

Conteneurisation et sécurité

Les pratiques de sécurité pour les environnements conteneurisés nécessitent une stratégie couvrant l'ensemble du cycle de vie du conteneur, y compris le développement, les tests et le déploiement.

Ces pratiques doivent concerner toutes les couches de la pile, y compris la plateforme de conteneurisation, les images de conteneurs, la plateforme d’orchestration et les conteneurs et applications individuels. 

Avant tout, les politiques de sécurité des conteneurs doivent s’articuler autour d’un cadre Zero Trust . Ce modèle vérifie et autorise chaque connexion utilisateur et garantit que l’interaction répond aux exigences conditionnelles des stratégies de sécurité de l’organisation. Une stratégie de sécurité Zero Trust authentifie et autorise également chaque appareil, flux réseau et connexion sur la base de politiques dynamiques, en utilisant le contexte provenant du plus grand nombre possible de sources de données.

La sécurité des conteneurs est devenue une préoccupation de plus en plus importante, car de plus en plus d’organisations s’appuient sur la technologie de conteneurisation, y compris les plateformes d’orchestration, pour déployer et faire évoluer leurs applications. Selon un rapport de Red Hat6, les vulnérabilités et les erreurs de configuration sont les principales préoccupations en matière de sécurité des environnements de conteneurs et Kubernetes. 

Comme mentionné précédemment, les applications conteneurisées présentent naturellement un certain niveau de sécurité puisqu'elles peuvent s'exécuter en tant que processus isolés et fonctionner indépendamment des autres conteneurs. Cette isolation signifie que cela peut potentiellement empêcher tout code malveillant d'affecter d'autres conteneurs ou d'envahir le système hôte. Cependant, les couches d'application au sein d'un conteneur sont souvent partagées entre plusieurs conteneurs. En termes d'efficacité des ressources, c'est un avantage, mais cela ouvre également la porte aux interférences et aux violations de sécurité entre les conteneurs. Il en va de même pour le système d'exploitation partagé, car plusieurs conteneurs peuvent être associés au même système d'exploitation hôte. Les menaces de sécurité pour le système d'exploitation commun peuvent avoir un impact sur tous les conteneurs associés ; inversement, une violation d'un conteneur peut potentiellement envahir le système d'exploitation hôte.

Mais qu’en est-il des risques et des vulnérabilités associés à l’image du conteneur elle-même ? Une stratégie de conteneurisation robuste inclut une approche « sécurisée par défaut », ce qui signifie que la sécurité doit être inhérente à la plateforme et non à une solution déployée et configurée séparément. À cette fin, le moteur de conteneur prend en charge toutes les propriétés d'isolation par défaut inhérentes au système d'exploitation sous-jacent. Des autorisations de sécurité peuvent être définies pour empêcher automatiquement les composants indésirables d'entrer dans les conteneurs ou pour limiter les communications avec les ressources inutiles.

Par exemple, Linux Linux Namespaces permet de fournir une vue isolée du système à chaque conteneur ; cela inclut la mise en réseau, les points de montage, les ID de processus, les ID utilisateur, la communication inter-processus et les paramètres de nom d’hôte. Les espaces de noms peuvent limiter l'accès à l'une de ces ressources via des processus au sein de chaque conteneur. En règle générale, les sous-systèmes qui ne prennent pas en charge les espaces de noms ne sont pas accessibles depuis un conteneur. Les administrateurs peuvent facilement créer et gérer ces « contraintes d'isolement » sur chaque application conteneurisée via une interface utilisateur simple.

De plus, une large gamme de solutions de sécurité des conteneurs est disponible pour automatiser la détection et la réponse aux menaces dans toute l'entreprise. Ces outils aident à surveiller et à appliquer les politiques de sécurité et à respecter les normes du secteur pour garantir le flux sécurisé des données. Par exemple, les outils logiciels de gestion de la sécurité peuvent aider à automatiser les pipelines CI/CD, bloquer les vulnérabilités avant la production et enquêter sur les activités suspectes avec une visibilité en temps réel. Cette approche relève du DevSecOps, le processus d'application et de développement qui automatise l'intégration des pratiques de sécurité à tous les niveaux du cycle de vie de développement logiciel.

Solutions connexes
Red Hat OpenShift on IBM Cloud

Red Hat OpenShift on IBM Cloud utilise OpenShift dans des environnements publics et hybrides pour garantir vitesse, réactivité, évolutivité, fiabilité vis-à-vis du marché.

Découvrir Red Hat OpenShift on IBM Cloud
IBM Cloud Satellite

Avec IBM Cloud Satellite, vous pouvez lancer des services cloud cohérents où vous le souhaitez : sur site, en périphérie (edge) et dans des environnements de cloud public.

Découvrir IBM Cloud Satellite
IBM Cloud Code Engine

Ce produit permet d’exécuter des images de conteneurs, des tâches par lots ou du code source en tant que charges de travail sans serveur, le tout, sans dimensionnement, déploiement, mise en réseau ou mise à l’échelle. 

Découvrir IBM Cloud Code Engine
Optimisation de Kubernetes avec IBM Turbonomic

Ce logiciel identifie automatiquement les bonnes actions d’allocation des ressources et le moment où elles doivent être réalisées pour que vos environnements Kubernetes et les applications vitales de votre entreprise obtiennent exactement ce dont ils ont besoin pour respecter vos SLO.

Découvrez IBM Turbonomic
IBM Fusion

Le logiciel Fusion fonctionne partout où Red Hat OpenShift est exécuté : sur le cloud public, sur site, sur les serveurs bare metal et sur les machines virtuelles. Fusion offre un moyen simple de déployer des applications Red Hat OpenShift et IBM Watsonx.

Découvrir IBM Fusion
Ressources Containers in the enterprise (Les conteneurs dans l’entreprise)

Une étude d’IBM décortique l’essor fulgurant des conteneurs et de Kubernetes.

Qu’est-ce que Docker ?

Docker est une plateforme open source permettant de créer, de déployer et de gérer des applications conteneurisées.

Que sont les microservices ?

Dans une architecture de microservices, chaque application est composée de nombreux services plus petits, liés de manière souple et pouvant être déployés indépendamment les uns des autres.

Que sont les conteneurs ?

Les conteneurs sont des unités exécutables de logiciels qui empaquetent le code de l’application ainsi que ses bibliothèques et dépendances. Ils permettent au code de s’exécuter dans n’importe quel environnement informatique, qu’il s’agisse d’un ordinateur de bureau, d’une infrastructure informatique traditionnelle ou d’une infrastructure cloud.

Qu’est-ce qu’une machine virtuelle (VM) ?

Une virtual machine (VM) est une représentation virtuelle ou une émulation d’un ordinateur physique qui utilise un logiciel plutôt que du matériel pour exécuter des programmes et déployer des applications.

Qu’est-ce que Kubernetes ?

Kubernetes, aussi connu sous le nom de k8s ou kube, est une plateforme d’orchestration de conteneurs open source permettant de planifier et d’automatiser le déploiement, la gestion et mise à l’échelle d’applications conteneurisées.

Passer à l’étape suivante

Red Hat OpenShift sur IBM Cloud offre aux développeurs un moyen rapide et sécurisé de conteneuriser et de déployer des charges de travail d’entreprise au sein de clusters Kubernetes. Fini les tâches fastidieuses et répétitives liées à la gestion de la sécurité, de la conformité, du déploiement et du cycle de vie en cours. 

Découvrir Red Hat OpenShift on IBM Cloud Commencer gratuitement
Notes de bas de page

Tous les liens sont externes au site ibm.com

The State of Cloud in the US, Forrester, 14 juin 2022.

2 Open Container Initiative

3 À propos de Docker, Docker.

4 Projets open source, Docker.

5 Containers as a Service Market worth USD 5.6 billion by 2027 - Exclusive Study by MarketsandMarkets, Cision, 30 novembre 2022.

6 State of Kubernetes Security Report, Red Hat, 17 avril 2023.