Startseite Themen kubernetes Was ist Kubernetes?
Erkunden Sie die Kubernetes-Lösung von IBM Abonnieren Sie Cloud-Updates
Illustration mit Collage aus Piktogrammen von Computermonitor, Server, Wolken, Punkten

Veröffentlicht: 11. März 2024
Mitwirkende: Stephanie Susnjara, Ian Smalley

Was ist Kubernetes?

Kubernetes, auch bekannt als k8s oder kube, ist eine Open-Source-Plattform zur Container-Orchestrierung für die Planung und Automatisierung der Bereitstellung, Verwaltung und Skalierung von containerisierten Anwendungen.

Heute sind Kubernetes und das erweiterte Ökosystem der Container-Technologien zu den Bausteinen einer modernen Cloud-Infrastruktur verschmolzen. Dieses Ökosystem ermöglicht es Unternehmen, eine hochproduktive hybride Multicloud-Computing-Umgebung bereitzustellen, um komplexe Aufgaben rund um Infrastruktur und Betrieb durchzuführen. Außerdem unterstützt es die cloudnative Entwicklung, indem es einen Ansatz für die Anwendungserstellung nach dem Prinzip „Einmal erstellen und überall bereitstellen“ ermöglicht.

Das Wort Kubernetes stammt aus dem Griechischen und bedeutet Steuermann oder Lotse, weshalb das Kubernetes-Logo (Link befindet sich außerhalb von ibm.com) ein Steuerrad enthält.

Flexibilität am Arbeitsplatz mit DaaS

Lesen Sie, wie Unternehmen mit Desktop-as-a-Service (DaaS) das gleiche Maß an Leistung und Sicherheit erreichen können wie bei der lokalen Bereitstellung der Anwendungen.

Ähnliche Inhalte

Registrieren und Leitfaden zur Hybrid Cloud lesen

Hintergrund: Container, Docker und Kubernetes
Was sind Container?

Container sind schlanke, ausführbare Anwendungskomponenten, die den Quellcode mit sämtlichen Bibliotheken und Abhängigkeiten des Betriebssystems kombinieren, die für die Ausführung des Codes in der Umgebung erforderlich sind.

Container nutzen eine Form der Virtualisierung des Betriebssystems, die es mehreren Anwendungen ermöglicht, sich eine einzige Instanz eines Betriebssystems zu teilen. Dafür werden Prozesse isoliert und die Menge an CPU-, Speicher- und Festplattenressourcen kontrolliert, auf die diese Prozesse zugreifen können. Da Container kleiner, ressourceneffizienter und portabler als virtuelle Maschinen (VMs) sind, haben sie sich de facto zu den typischen Recheneinheiten moderner cloudnativer Anwendungen entwickelt. Container sind zudem ressourceneffizienter. Sie ermöglichen es Ihnen, mehr Anwendungen auf weniger Maschinen (virtuelle Server und physische Server) mit weniger Betriebssysteminstanzen auszuführen.

Da Container überall einheitlich ausgeführt werden können, sind sie für die zugrunde liegende Architektur entscheidend, welche hybride Multicloud-Umgebungen unterstützt, d. h. die Kombination von On-Premises, Private Cloud, Public Cloud und mehr als einem Cloud-Service von mehr als einem Cloud-Anbieter.

Was ist Docker?

Docker ist das beliebteste Tool zum Erstellen und Ausführen von Linux-Containern. Während frühe Formen der Containertechnologie bereits vor Jahrzehnten entwickelt wurden (mit Technologien wie FreeBSD Jails und AIX Workload Partitions), wurden die Verwendung von Containern im Jahr 2013 demokratisiert, als Docker sie mit einer neuen entwickler- und cloudfreundlichen Implementierung der breiten Masse zugänglich machte.

Docker begann als Open-Source-Projekt. Heute bezieht sich der Begriff allerdings auch auf Docker Inc., das Unternehmen, das Docker produziert – ein kommerzielles Container-Toolkit, das auf dem Open-Source-Projekt aufbaut und seine Verbesserungen an die Open-Source-Community zurückgibt.

Docker basiert auf der traditionellen Linux-Container-Technologie, ermöglicht jedoch eine differenziertere Virtualisierung von Linux-Kernel-Prozessen und erweitert sie um Funktionen, mit denen Entwickler Container einfacher erstellen, bereitstellen, verwalten und sichern können.

Obwohl es heute alternative Container-Laufzeitplattformen wie Open Container Initiative (OCI), CoreOS und Canonical (Ubuntu) LXD gibt, ist Docker die vorherrschende Wahl. Darüber hinaus ist Docker zum Synonym für Container geworden und wird manchmal fälschlicherweise als Konkurrent von ergänzenden Technologien wie Kubernetes angesehen.

Heute sind Docker und Kubernetes die führenden Containerisierungs-Tools, wobei Docker 82 % des Marktes dominiert und Kubernetes einen Marktanteil von 11,52 % im Jahr 2024 aufweist (Link befindet sich außerhalb von ibm.com).

Containerorchestrierung mit Kubernetes

Mit der zunehmenden Verbreitung von Containern kann ein Unternehmen heute über Hunderte oder Tausende von Containern verfügen. Dementsprechend werden Betriebsteams benötigt, um die Containerbereitstellung, Vernetzung, Skalierbarkeit und Verfügbarkeit zu planen und zu automatisieren. Hier kommt die Container-Orchestrierung ins Spiel.

Kubernetes basiert auf Borg, der internen Container-Orchestrierungsplattform von Google, und wurde 2014 als Open-Source-Tool vorgestellt. Microsoft, Red Hat®, IBM und andere große Tech-Unternehmen schlossen sich als frühe Mitglieder der Kubernetes-Community an. Im Jahr 2015 spendete Google Kubernetes der Cloud Native Computing Foundation (CNCF) (Link befindet sich außerhalb von ibm.com), dem quelloffenen, anbieterneutralen Zentrum für cloudnatives Computing. 

Kubernetes wurde im März 2016 zum ersten gehosteten Projekt der CNCF. Seitdem hat sich Kubernetes zum weltweit am weitesten verbreiteten Container-Orchestrierungstool für die Ausführung von containerbasierten Workloads entwickelt. Einem CNCF-Bericht zufolge (Link befindet sich außerhalb von ibm.com) ist Kubernetes das zweitgrößte Open-Source-Projekt der Welt (nach Linux) und das primäre Container-Orchestrierungstool für 71 % der Fortune-100-Unternehmen. 

In 2018 war Kubernetes das erste graduierte Projekt der CNCF und wurde zu einem der am schnellsten wachsenden Open-Source-Projekte in der Geschichte. Während andere Optionen für die Container-Orchestrierung, vor allem Docker Swarm und Apache Mesos, schon früh eine gewisse Anziehungskraft entwickelten, wurde Kubernetes schnell die am weitesten verbreitete Lösung. 

Seit Kubernetes 2016 in die CNCF aufgenommen wurde, ist die Zahl der Mitwirkenden auf 8.012 angewachsen, eine Steigerung um 996 % (Link befindet sich außerhalb von ibm.com). Zum Zeitpunkt der Erstellung dieses Artikels haben die Mitwirkenden über 123.000 Commits zum Kubernetes-Repository auf GitHub hinzugefügt (Link liegt außerhalb von ibm.com).

Welche Features bietet Kubernetes?

Kubernetes plant und automatisiert Aufgaben im Zusammenhang mit Containern während des gesamten Lebenszyklus einer Anwendung. Dazu zählen:

Bereitstellung

Stellen Sie eine bestimmte Anzahl von Containern auf einem bestimmten Host bereit und führen Sie diese im gewünschten Zustand aus.

Rollouts

Ein Rollout ist eine Änderung an einer Bereitstellung. Mit Kubernetes können Sie Rollouts initialisieren, anhalten, fortsetzen oder zurücksetzen.

Serviceerkennung

Kubernetes kann automatisch einen Container im Internet oder anderen Containern unter Verwendung eines Domain-Name-Systems (DNS) oder einer IP-Adresse zur Verfügung stellen.

Speicherbereitstellung

Richten Sie Kubernetes so ein, dass bei Bedarf permanenter lokaler oder Cloud-Speicher für Ihre Container bereitgestellt wird.

Lastausgleich

Basierend auf der CPU-Nutzung oder benutzerdefinierten Metriken kann der Lastausgleich (auch als Load Balancing bezeichnet) von Kubernetes eine Workload über das Netzwerk verteilen, um Leistung und Stabilität zu gewährleisten. 

Automatische Skalierung

Wenn der Datenverkehr in die Höhe schießt, kann die automatische Skalierung von Kubernetes bei Bedarf neue Cluster aufsetzen, um die zusätzliche Workload zu bewältigen.

Automatische Fehlerbehebung für hohe Verfügbarkeit

Wenn ein Container ausfällt, kann Kubernetes ihn automatisch neu starten oder ersetzen, um Ausfallzeiten zu vermeiden. Container, die den Anforderungen der Zustandsprüfung nicht entsprechen, können damit auch entfernt werden.

Kubernetes-Architektur und Komponenten

Die Bereitstellung von Kubernetes umfasst Cluster, die Bausteine der Kubernetes-Architektur. Cluster bestehen aus Knoten, von denen jeder einen einzelnen Compute-Host darstellt, entweder einen physischen Rechner (Bare Metal Server) oder eine VM.

Die Kubernetes-Architektur besteht aus zwei Hauptteilen: den Komponenten des Kontrollbereichs und den Komponenten, die einzelne Knoten verwalten.

Ein Knoten besteht aus Pods. Dies sind Gruppen von Containern mit denselben Rechenressourcen und demselben Netzwerk. Sie sind auch die Einheit der Skalierbarkeit in Kubernetes: Wenn ein Container in einem Pod mehr Datenverkehr verzeichnet, als er bewältigen kann, repliziert Kubernetes den Pod auf andere Knoten im Cluster.

Der Kontrollbereich übernimmt automatisch die Planung der Pods auf den Knoten in einem Cluster. 

Komponenten des Kontrollbereichs

Jeder Cluster hat einen Masterknoten, der den Kontrollbereich des Clusters steuert. Auf dem Master-Knoten wird ein Scheduler-Service ausgeführt, der automatisiert, wann und wo die Container auf der Grundlage der von den Entwicklern festgelegten Bereitstellungsanforderungen und der verfügbaren Rechenkapazität bereitgestellt werden.

Die Hauptkomponenten eines Kubernetes-Clusters sind der kube-apiserver, etcd, kube-scheduler, kube-controller-manager und cloud-controller-manager:

API-Server:
 Der API-Server (Programmierschnittstelle) in Kubernetes stellt die Kubernetes API (die Schnittstelle zur Verwaltung, Erstellung und Konfiguration von Kubernetes-Clustern) zur Verfügung und dient als Einstiegspunkt für alle Befehle und Abfragen.

etcd
: Der etcd ist ein quelloffener, verteilter Key-Value-Speicher, der dazu dient, die kritischen Informationen zu speichern und zu verwalten, die verteilte Systeme für ihren Betrieb benötigen. In Kubernetes verwaltet das etcd die Konfigurationsdaten, Zustandsdaten und Metadaten.

Scheduler: 
Diese Komponente verfolgt neu erstellte Pods und wählt Knoten aus, auf denen sie ausgeführt werden sollen. Der Scheduler berücksichtigt Ressourcenverfügbarkeit und -zuweisungsbeschränkungen, Hardware- und Softwareanforderungen und mehr. 

Controller-Manager: 
Der Kubernetes-Controller-Manager besteht aus einer Reihe von integrierten Controllern und führt eine Kontrollschleife aus, die den gemeinsamen Zustand des Clusters überwacht und mit dem API-Server kommuniziert, um Ressourcen, Pods oder Service-Endpunkte zu verwalten. Der Controller-Manager besteht aus separaten Prozessen, die zur Reduzierung der Komplexität gebündelt und in einem Prozess ablaufen. 

Cloud-Controller-Manager: 
Diese Komponente ähnelt in ihrer Funktion dem Controller-Manager. Er ist mit der   API eines Cloud-Anbieters verknüpft und trennt die Komponenten, die mit dieser Cloud-Plattform interagieren, von denen, die nur innerhalb des Clusters interagieren.

Komponenten des Knotens

Worker-Knoten sind für die Bereitstellung, Ausführung und Verwaltung von containerisierten Anwendungen zuständig:

Kubelet ist ein Software-Agent, der Aufträge vom Master-Knoten empfängt und ausführt und dazu beiträgt, dass die Container in einem Pod laufen. 

Kube-Proxy:
Der Kube-Proxy wird auf jedem Knoten in einem Cluster installiert und verwaltet die Netzwerkregeln auf dem Host und überwacht Änderungen an Diensten und Pods. 

Weitere Kubernetes-Konzepte und Terminologie
  • ReplicaSet: Ein ReplicaSet verwaltet einen stabilen Satz von Replica-Pods für bestimmte Workloads. 

  • Bereitstellung: Die Bereitstellung steuert die Erstellung und den Zustand der containerisierten Anwendung und hält sie am Laufen.Sie gibt an, wie viele Replikate eines Pods auf dem Cluster ausgeführt werden sollen und verbessert die Verfügbarkeit, indem sie beim Ausfall eines Pods automatisch einen neuen erstellt.

  • Kubectl: Entwickler verwalten Cluster-Operationen mit kubectl, einem Entwickler-Tool, das aus einer Befehlszeilen-Schnittstelle (CLI) besteht, die direkt mit der Kubernetes-API kommuniziert. 

  • DaemonSets: DaemonSets sind dafür verantwortlich, dass auf jedem einzelnen Knoten des Clusters ein Pod erstellt wird. 

  • Add-ons: Kubernetes-Add-ons erweitern die Funktionen und umfassen Cluster DNS (ein DNS-Server, der DNS-Einträge für Kubernetes bereitstellt), Web UI (ein Kubernetes-Dashboard zur Verwaltung eines Clusters) und mehr. 

  • Service: Ein Kubernetes-Service ist eine Abstraktionsschicht, die einen logischen Satz von Pods und den Zugriff auf diese definiert. Ein Service zeigt eine Netzwerkanwendung, die auf einem oder mehreren Pods in einem Cluster ausgeführt wird. Er bietet eine abstrakte Methode zur Lastverteilung von Pods.
Das Kubernetes-Ökosystem

Heute gibt es über 90 zertifizierte Kubernetes-Angebote (Link befindet sich außerhalb von ibm.com), darunter für Unternehmen konzipierte Verwaltungsplattformen, die Tools, Upgrades und Zusatzfunktionen bieten, welche die Entwicklung und Bereitstellung von containerisierten Anwendungen beschleunigen. 

Verwaltete Kubernetes-Services

Während Kubernetes die Technologie der Wahl für die Orchestrierung von Container-basierten Cloud-Anwendungen ist, hängt die volle Funktionsfähigkeit von anderen Komponenten ab, die von Networking, Ingress, Load Balancing, Storage, Continuous Integration und Continuous Delivery (CI/CD) und mehr reichen. 

Auch wenn es möglich ist, einen Kubernetes-Cluster in einer cloudbasierten Umgebung selbst zu hosten, kann die Einrichtung und Verwaltung für ein Unternehmen komplex sein. Hier kommen verwaltete Kubernetes-Services ins Spiel.

Bei verwalteten Kubernetes-Services verwaltet der Anbieter in der Regel die Komponenten des Kubernetes-Kontrollbereichs. Der Managed Service Provider hilft bei der Automatisierung von Routineprozessen für Updates, Lastausgleich, Skalierung und Überwachung. Red Hat OpenShift ist beispielsweise ein Kubernetes-Service, der in jeder Umgebung und in allen wichtigen Public Clouds wie Amazon Web Services (AWS), Microsoft Azure, Google Cloud und IBM Cloud eingesetzt werden kann. Viele Cloud-Anbieter bieten auch ihre eigenen verwalteten Kubernetes-Services an.

Tools für die Kubernetes-Überwachung

Die Kubernetes-Überwachung bezieht sich auf das Sammeln und Analysieren von Daten in Bezug auf den Zustand, die Leistung und die Kostenmerkmale von containerisierten Anwendungen, die in einem Kubernetes-Cluster laufen.

Die Überwachung von Kubernetes-Clustern ermöglicht es Administratoren und Benutzern, die Betriebszeit, die Nutzung von Cluster-Ressourcen und die Interaktion zwischen Cluster-Komponenten zu verfolgen. Die Überwachung hilft bei der schnellen Erkennung von Problemen wie unzureichenden Ressourcen, Ausfällen und Knoten, die dem Cluster nicht beitreten können. Zu den heutigen Lösungen für die Kubernetes-Überwachung gehören automatisierte Tools für Application Performance Management (APM), Observability, Application Resource Management (ARM) und mehr.

Istio Service Mesh

Kubernetes kann Pods bereitstellen und skalieren, kann aber das Routing zwischen ihnen nicht verwalten oder automatisieren und stellt keine Tools zur Überwachung, Sicherung oder Fehlerbehebung dieser Verbindungen bereit.

Mit zunehmender Anzahl von Containern in einem Cluster steigt die Anzahl der möglichen Verbindungspfade zwischen ihnen exponentiell an. So haben beispielsweise zwei Container lediglich zwei potenzielle Verbindungen, 10 Pods hingegen 90), was die Konfiguration und Verwaltung quasi unüberschaubar macht.

Istio, eine konfigurierbare, quelloffene Service-Mesh-Ebene, bietet eine Lösung, indem sie Container in einem Kubernetes-Cluster verbindet, überwacht und sichert. Zu den weiteren wichtigen Vorteilen gehören Funktionen für ein verbessertes Debugging und ein Dashboard, mit dem DevOps-Teams und Administratoren Latenz, Time-in-Service-Fehler und andere Merkmale der Verbindungen zwischen Containern überwachen können.

Knative und Serverless Computing

Knative (ausgesprochen 'key-neytive') ist eine Open-Source-Plattform, die einen einfachen Einstieg in das serverlose Computing ermöglicht. Dabei handelt es sich um ein Modell für die Entwicklung und Ausführung von Cloud-Computing-Anwendungen, mit dem Entwickler Anwendungscode erstellen und ausführen können, ohne Server oder Backend-Infrastruktur bereitstellen oder verwalten zu müssen.

Anstatt eine laufende Code-Instanz bereitzustellen, die im Leerlauf auf Anfragen wartet, wird der Code bei Bedarf hoch- oder herunterskaliert, wenn die Nachfrage schwankt. Wenn der Code schließlich nicht mehr gebraucht wird, wird er wieder entfernt. Serverless verhindert die Verschwendung von Rechenkapazität und Energie und senkt Kosten, da Sie nur dann für die Ausführung des Codes zahlen, wenn er ausgeführt wird.

Tekton

Tekton ist ein herstellerneutrales Open-Source-Framework zur Erstellung von CI/CD-Systemen (Continuous Integration and Delivery), das von der Continuous Delivery Foundation (CDF) verwaltet wird (Link befindet sich außerhalb von IBM).

Als Kubernetes-Framework trägt Tekton zur Modernisierung der kontinuierlichen Bereitstellung bei, indem es Branchenspezifikationen für Pipelines, Workflows und andere Bausteine bereitstellt, wodurch die Bereitstellung über mehrere Cloud-Anbieter oder Hybridumgebungen schneller und einfacher wird. 

Es ist erwähnenswert, dass Tekton der Nachfolger von Knative Build ist, das in einigen Knative-Distributionen noch unterstützt wird. Tekton-Pipelines sind zum Standard für die Erstellung von Container-Images und deren Bereitstellung in einer Container-Registry in einer Kubernetes-Umgebung geworden.

Kubernetes-Anwendungsfälle

Unternehmen nutzen Kubernetes, um die folgenden Anwendungsfälle zu unterstützen, die alle eine entscheidende Rolle in der modernen IT-Infrastruktur spielen. 

Microservices-Architektur oder cloudnative Entwicklung

Cloudnativ ist ein Softwareentwicklungsansatz für die Erstellung, Bereitstellung und Verwaltung von cloudbasierten Anwendungen. Der größte Vorteil von Cloudnativ ist, dass DevOps und andere Teams einmal programmieren und auf jeder Cloud-Infrastruktur von jedem Cloud-Service-Anbieter bereitstellen können.

Dieser moderne Entwicklungsprozess stützt sich auf Microservices, einen Ansatz, bei dem eine einzelne Anwendung aus vielen lose gekoppelten und unabhängig voneinander einsetzbaren kleineren Komponenten oder Diensten besteht, die in von Kubernetes verwalteten Containern bereitgestellt werden.

Kubernetes stellt sicher, dass jeder Microservice über die Ressourcen verfügt, die er für einen effektiven Betrieb benötigt, und minimiert gleichzeitig den mit der manuellen Verwaltung mehrerer Container verbundenen betrieblichen Aufwand.

Hybride Multicloud-Umgebungen

Hybrid Clouds kombinieren und vereinen Public Clouds, Private Clouds und On-Premises-Rechenzentren, um eine einzige, flexible und kostenoptimale IT-Infrastruktur zu schaffen.

Heute ist die Hybrid Cloud mit der Multicloud, den Public-Cloud-Services von mehr als einem Cloud-Anbieter, zu einer hybriden Multicloud-Umgebung verschmolzen.

Ein hybrider Multicloud-Ansatz sorgt für mehr Flexibilität und verringert die Abhängigkeit eines Unternehmens, indem dem Risiko einer Anbieterbindung vorgebeugt wird. Da Kubernetes die Grundlage für die cloudnative Entwicklung bildet, ist es der Schlüssel zur Einführung einer hybriden Multicloud-Umgebung.

Anwendungen im großen Maßstab

Kubernetes unterstützt mithilfe von Autoscaling die Bereitstellung von Cloud-Anwendungen im großen Maßstab. Dieser Prozess ermöglicht es, Anwendungen nach oben oder unten zu skalieren und sich automatisch an die veränderte Nachfrage anzupassen – und zwar schnell, effizient und mit minimalen Ausfallzeiten. 

Die elastische Skalierbarkeit der Kubernetes-Bereitstellung bedeutet, dass Ressourcen auf der Grundlage von Änderungen des Benutzer-Traffics hinzugefügt oder entfernt werden können, so z. B. bei Flash-Sales auf Einzelhandels-Websites.

Anwendungsmodernisierung

Kubernetes bietet die moderne Cloud-Plattform, die für die Anwendungsmodernisierung benötigt wird, um monolithische Legacy-Anwendungen in Cloud-Anwendungen zu migrieren und umzuwandeln, die auf einer Microservices-Architektur basieren.

DevOps-Praktiken

Automatisierung ist das Herzstück von DevOps. Durch die Kombination und Automatisierung der Arbeit von Softwareentwicklungs- und IT-Betriebsteams wird die Bereitstellung von qualitativ hochwertiger Software beschleunigt.

Kubernetes hilft DevOps-Teams bei der schnellen Erstellung und Aktualisierung von Anwendungen, indem es die Konfiguration und Bereitstellung von Anwendungen automatisiert.

Künstliche Intelligenz (KI) und maschinelles Lernen (ML)

Die ML und Large Language Models (LLM), die KI unterstützen, umfassen Komponenten, die separat nur schwer und zeitaufwändig zu verwalten wären. Durch die Automatisierung von Konfiguration, Bereitstellung und Skalierbarkeit über Cloud-Umgebungen hinweg bietet Kubernetes die nötige Agilität und Flexibilität, um diese komplexen Modelle zu trainieren, zu testen und bereitzustellen.

Kubernetes-Tutorials

Wenn Sie mit der Arbeit mit Kubernetes beginnen oder Ihre Kenntnisse über Kubernetes und die Tools des Kubernetes-Ökosystems erweitern möchten, sollten Sie eines dieser Tutorials ausprobieren.  

Weiterführende Lösungen
Red Hat OpenShift on IBM Cloud

Mit Red Hat OpenShift on IBM Cloud haben OpenShift-Entwickler eine schnelle und sichere Möglichkeit zur Containerisierung und Bereitstellung von Unternehmens-Workloads in Kubernetes-Clustern.

Red Hat OpenShift erkunden
IBM® Cloud Kubernetes Service

Stellen Sie sichere und hochverfügbare Cluster in einer nativen Kubernetes-Erfahrung bereit.

IBM Cloud Kubernetes Service kennenlernen
IBM® Cloud Pak for Applications

Stellen Sie eine Anwendungslandschaft bereit, die sich mit Ihrem Unternehmen weiterentwickelt. IBM Cloud Pak for Applications bietet Ihnen die ultimative Flexibilität, ganz gleich, ob Sie neue cloudnative Services und Anwendungen entwickeln oder bestehende Anwendungen überarbeiten oder auf neue Plattformen umstellen.

Erkunden Sie IBM Cloud Pak for Applications
IBM® Cloud Satellite

Stellen Sie Apps konsistent in lokalen, Edge-Computing- und Public-Cloud-Umgebungen beliebiger Cloud-Anbieter bereit und führen Sie sie mithilfe eines gemeinsamen Satzes von Cloud-Services aus, einschließlich Toolchains, Datenbanken und KI.

IBM Cloud Satellite-Lösungen erkunden
IBM® Cloud Code Engine

IBM Cloud Code Engine ist eine vollständig verwaltete serverlose Plattform, mit der Sie Ihren Container-, Anwendungscode- oder Batch-Job auf einer vollständig verwalteten Container-Laufzeit ausführen können.

Code Engine erkunden
Ressourcen Nutzung von Containern im Unternehmen

IBM® Research dokumentiert die rasante Verbreitung von Containern und Kubernetes.

Flexible, resiliente und sichere IT für Ihre Hybrid Cloud

Container sind Teil einer Hybrid-Cloud-Strategie, mit der Sie Workloads von überall aus erstellen und verwalten können.

Was ist Serverless?

Serverless ist ein Modell für die Entwicklung und Ausführung von Cloud-Anwendungen, mit dem Entwickler Code erstellen und ausführen können, ohne Server verwalten oder für ungenutzte Cloud-Infrastruktur bezahlen zu müssen.

YAML-Grundlagen in Kubernetes

Sehen Sie sich ein dafür Beispiel an, wie eine YAML-Datei in Kubernetes verwendet wird.

Was sind Container?

Container sind ausführbare Softwareeinheiten, in denen Anwendungscode zusammen mit seinen Bibliotheken und Abhängigkeiten in üblicher Weise verpackt wird, sodass der Code überall ausgeführt werden kann – sei es auf dem Desktop, in der herkömmlichen IT oder in der Cloud.

Was ist Docker?

Docker ist eine Open-Source-Plattform, die es Entwicklern ermöglicht, Container zu erstellen, bereitzustellen, auszuführen, zu aktualisieren und zu verwalten. Dabei handelt es sich um standardisierte, ausführbare Komponenten, die den Quellcode von Anwendungen mit den Betriebssystembibliotheken und Abhängigkeiten kombinieren, die für die Ausführung dieses Codes in jeder Umgebung erforderlich sind.

Machen Sie den nächsten Schritt

Red Hat OpenShift on IBM Cloud bietet Entwicklern eine schnelle und sichere Möglichkeit zur Containerisierung und Bereitstellung von Unternehmensworkloads in Kubernetes-Clustern. Entlasten Sie Ihre Teams von mühsamen Routineaufgaben wie Sicherheitsmanagement, Konformitätsmanagement, Implementierungsmanagement und laufendes Lebenszyklusmanagement.

Red Hat OpenShift on IBM Cloud kennenlernen Kostenfrei starten