Kubernetes-Bereitstellungsstrategien: Auswahl des richtigen Ansatzes für Ihre Anwendungen

Leute an Computern

Autoren

Stephanie Susnjara

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

Kubernetes-Bereitstellungsstrategien

Die von Unternehmen gewählte Bereitstellungsstrategie kann über Erfolg oder Misserfolg der Einführung von Softwareanwendungen entscheiden. In Kubernetes-Umgebungen wirkt sich diese Entscheidung direkt auf die Verfügbarkeit von Anwendungen, die Entwicklungsgeschwindigkeit und die Betriebskosten aus.

Der Unterschied zwischen einem reibungslosen Rollout und einer katastrophalen Bereitstellung hängt oft davon ab, ob der richtige Ansatz für die Anforderungen und die Risikotoleranz bestimmter Apps gewählt wurde.

Mit der zunehmenden Verbreitung von Kubernetes werden strategische Bereitstellungsentscheidungen sowohl für DevOps-Teams als auch für die Geschäftsergebnisse immer wichtiger.

Eine Umfrage der Cloud Native Computing Foundation (CNCF) ergab, dass 93 % der Unternehmen Kubernetes einsetzen, testen oder evaluieren.1 Jede Kubernetes-Bereitstellungsstrategie bietet unterschiedliche Kompromisse zwischen Geschwindigkeit, Sicherheit und Ressourcennutzung.

Was ist eine Kubernetes-Bereitstellung?

Eine Kubernetes-Bereitstellung ist eine übergeordnete Ressource, die den Lebenszyklus von zustandslosen Anwendungen in einem Kubernetes-Cluster verwaltet. Sie bietet eine deklarative Möglichkeit, den beabsichtigten Zustand der Anwendung zu definieren, einschließlich der Anzahl der Replikate, der Container-Images und der Aktualisierungsbehandlung.

Anstatt einzelne Container oder Pods zu verwalten, bieten Bereitstellungen den Teams eine Verwaltungsebene, die komplexe Orchestrierung übernimmt, die für einen zuverlässigen Betrieb von Anwendungen erforderlich ist.

Die neuesten Tech-News – von Experten bestätigt

Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und darüber hinaus auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Übersicht über Kubernetes

Kubernetes, die de facto Open-Source-Plattform für die Container-Orchestrierung, hat die Art und Weise, wie Unternehmen über die Bereitstellung von Anwendungen denken, grundlegend verändert. Als Unternehmen im Zuge der Cloud-Migration von einfachen, monolithischen Anwendungen zu komplexen, verteilten Architekturen übergingen, wurden traditionelle Bereitstellungsansätze unpraktisch und kostspielig.

Ursprünglich von Google entwickelt und 2015 an die CNCF gespendet, unterstützt Kubernetes die grundlegende IT-Infrastruktur für die meisten Fortune-500-Unternehmen. Kubernetes automatisiert die Bereitstellung, Skalierung und Verwaltung über Maschinencluster hinweg und ermöglicht es Teams, Anwendungen mehrmals täglich zu aktualisieren, anstatt Bereitstellungen als risikoreiche, seltene Ereignisse zu betrachten.

Vor Kubernetes wurden Anwendungen in der Regel auf dedizierten Servern oder virtuellen Maschinen (VMs) ausgeführt, was die Skalierung teuer und zeitaufwändig machte. Während Docker die Container populär machte, stellte Kubernetes die Container-Orchestrierungsebene bereit, um diese Container in großem Maßstab zu verwalten und sie in Pods, den kleinsten einsetzbaren Einheiten, zu organisieren.

Diese Pods laufen über Worker-Knoten innerhalb von Clustern, während eine Steuerungsebene alle Operationen koordiniert.

Diese cloudnative Architektur ermöglicht die ausgeklügelten Bereitstellungsstrategien, die moderne cloudbasierte containerisierte Anwendungen erfordern. Von schrittweisen Einführungen bis hin zur sofortigen Verkehrsverlagerung mit Lastenausgleich – jeder Ansatz behandelt unterschiedliche Risikoprofile und betriebliche Anforderungen. Kubernetes Services bieten stabile Netzwerkidentitäten und DNS-basierte Erkennung für Pod-Gruppen und ermöglichen zuverlässige Kommunikationsmuster, selbst wenn einzelne Instanzen aktualisiert oder ersetzt werden.

OpenShift 

Erfahren Sie, wie Container in der Cloud mit OpenShift ausgeführt werden

Container erleichtern das Erstellen, Ausführen und Verschieben von Anwendungen in verschiedenen Umgebungen. Dieses Video zeigt, wie OpenShift on IBM Cloud Teams dabei hilft, containerisierte Anwendungen effizient zu verwalten und die Cloud-Entwicklung schneller und zuverlässiger zu machen.

Wie funktionieren Kubernetes-Bereitstellungen?

Kubernetes-Bereitstellungen verwalten automatisch den Lebenszyklus von Anwendungen, indem sie die vorgesehene Anzahl von Pods aufrechterhalten, Updates verarbeiten und Container durch Selbstheilungsfunktionen ersetzen.

Bei der Aktualisierung einer Anwendung legen die Teams fest, wie die neue Version in einer YAML-Datei aussehen soll. Kubernetes übernimmt dann die komplexe Orchestrierung, die erforderlich ist, um den beabsichtigten Zustand im gesamten Cluster zu erreichen, erstellt neue Pod und verwaltet den Übergang von der vorherigen Version.

Teams interagieren mit Bereitstellungen über kubectl, die Befehlszeilenschnittstelle für Kubernetes-Cluster. Sie wenden YAML-Konfigurationsdateien (z. B. deployment.yaml) an, die die API-Version der Bereitstellung, Metadaten und den definierten Status im Abschnitt „spec“ angeben.

 Diese deklarativen Konfigurationsdateien ermöglichen Versionskontrolle und wiederholbare Bereitstellungen in verschiedenen Umgebungen. Der Bereitstellungscontroller überwacht und verwaltet den Bereitstellungslebenszyklus kontinuierlich auf der Grundlage dieser Spezifikationen.

Fünf wesentliche Komponenten der Kubernetes-Bereitstellung

Der automatisierte Prozess von Kubernetes basiert auf fünf wesentlichen Komponenten, die zusammenarbeiten, wobei Kubernetes Networking die Kommunikation zwischen Pods ermöglicht:

  1. Pod-Vorlagenspezifikation: Die Pod-Vorlagenspezifikation definiert den Entwurf für die Erstellung von Pods, einschließlich Container-Images, Ressourcenanforderungen, Umgebungsvariablen, Volume-Mounts, Container-Ports und Netzwerkkonfiguration. Diese Vorlage gewährleistet Konsistenz über alle Anwendungsinstanzen hinweg.

  2. Anzahl der Replikate: Die Replikatanzahl gibt an, wie viele Instanzen gleichzeitig ausgeführt werden sollen. Benutzer können diese Einstellung manuell oder automatisch über Horizontal Pod Autoscalers auf der Grundlage von Kubernetes-Überwachungsmetriken wie CPU-Auslastung, Speicherverbrauch oder benutzerdefinierten Geschäftsmetriken anpassen. Teams können den Rollout-Status über „kubectl“-Rollout-Befehle oder kubectl get überwachen, um den Bereitstellungsstatus zu überprüfen und sicherzustellen, dass während der Updates die richtige Anzahl von Pods ausgeführt wird.

  3. Selektor-Labels: Selektor-Labels stellen Verbindungen zwischen Bereitstellungen und ihren verwalteten Pods durch labelbasiertes Matching her. Diese Selektoren stellen sicher, dass Deployments die Pods verwalten, für die sie zuständig sind, und verhindern so Konfigurationskonflikte in komplexen Umgebungen.

  4. Aktualisieren der Strategiekonfiguration: Die Aktualisierung der Strategiekonfiguration steuert, wie neue Versionen einer Anwendung bereitgestellt werden. Es umfasst Einstellungen für die maximale Anzahl nicht verfügbarer Pods während Updates, Spitzenkapazitäten für Blue-Green-Szenarien und Rollback-Auslöser für die automatische Fehlerbehebung.

  5. Einstellungen für das Ressourcenmanagement: Ressourcenverwaltungseinstellungen definieren CPU- und Speicheranforderungen sowie -beschränkungen für Container und gewährleisten so eine optimale Ressourcenzuweisung im gesamten Cluster, während gleichzeitig Ressourcenkonflikte vermieden werden – was in mandantenfähigen Umgebungen von entscheidender Bedeutung ist.

Anwendungsfall für Kubernetes-Bereitstellungen

Unternehmen nutzen Kubernetes-Bereitstellungen in vielen verschiedenen Kontexten und profitieren dabei jeweils von der automatisierten Lebenszyklusverwaltung und den flexiblen Aktualisierungsstrategien:

  • Webanwendungen und APIs
  • Microservices
  • Stapelverarbeitungs-Workloads
  • Multiumgebungs-Workflows
  • CI/CD-Pipelines

Webanwendungen und APIs

Webanwendungen und APIs bleiben bei Updates verfügbar und skalieren gleichzeitig den Anforderungen des Datenverkehrs. E-Commerce-Plattformen und Content-Management-Systeme profitieren insbesondere von der Möglichkeit, Funktionen ohne Unterbrechung für die Benutzer zu aktualisieren.

Backend- Services, die Datenverarbeitung oder Geschäftslogik verarbeiten, können unabhängig von Frontend-Anwendungen bereitgestellt werden, wobei Kubernetes Ingress-Controller das Traffic-Routing und den Lastausgleich zwischen den Service-Instanzen verwalten.

Microservices

Microservices-Architekturen koordinieren Aktualisierungen über Hunderte unabhängiger Dienste hinweg, ohne das gesamte System zu beeinträchtigen. Diese Funktion ermöglicht es Teams, einzelne Komponenten nach unterschiedlichen Zeitplänen bereitzustellen und dabei die Stabilität des Gesamtsystems aufrechtzuerhalten.

Helm-Charts vereinfachen die Verwaltung komplexer Microservice-Bereitstellungen durch standardisierte Konfigurationen und Abhängigkeitsmanagement.

Batchverarbeitung von Workloads

Die Stapelverarbeitung von Workloads gewährleistet eine konsistente Ressourcenzuweisung und automatische Neustartfunktionen für Datenverarbeitungsaufgaben. Die Bereitstellungsabstraktion vereinfacht die Verwaltung komplexer Verarbeitungs-Pipelines, die Fehler elegant behandeln müssen.

Workflows in mehreren Umgebungen

Multienvironment-Workflows sorgen für Konsistenz zwischen Entwicklung, Staging und Produktion und wenden gleichzeitig umgebungsspezifische Konfigurationen an. Teams können dieselben Bereitstellungsdefinitionen in Umgebungen mit unterschiedlicher Replikanzahl, Ressourcenbeschränkungen oder Feature-Flags verwenden und Anwendungen innerhalb von Namespaces organisieren, um eine logische Trennung und Ressourcenisolierung zu erreichen.

CI/CD-Pipelines

CI/CD-Pipelines nutzen Deployments, um den gesamten Softwarebereitstellungsprozess vom Code-Commit bis zur Produktionsfreigabe durch kontinuierliches Deployment zu automatisieren.

Die Bereitstellungen lassen sich nahtlos in Continuous Integration-Tools und -Plattformen wie GitHub integrieren und ermöglichen automatisierte Tests, Builds und Bereitstellungen auf der Grundlage von Codeänderungen, Pull-Anfragen oder geplanten Releases.

Typen von Kubernetes-Strategien der Bereitstellung

Bei Bereitstellungsstrategien geht es im Wesentlichen darum, Risiken bei der Aktualisierung von Software zu managen. In der Vergangenheit umfassten traditionelle Methoden die Planung von Wartungsfenstern und die Abschaltung von Systemen, was zwar sicher, aber langsam war. Kubernetes ermöglicht die Aktualisierung von Anwendungen ohne Ausfallzeiten, häufigere Bereitstellungen und eine Verringerung des Koordinationsaufwands.

Verschiedene Kubernetes-Bereitstellungsstrategien gehen unterschiedlich mit Aktualisierungsrisiken um. Die Wahl hängt davon ab, was die Anwendung leistet, was das Team bewältigen kann und was das Unternehmen benötigt.

Zu den Arten von Kubernetes-Bereitstellungsstrategien gehören beispielsweise:

  • Bereitstellung neu erstellen
  • Rolling Update-Bereitstellung
  • Blau-grüne Bereitstellung
  • Canary-Bereitstellung
  • Schatten-Bereitstellung
  • Bereitstellung von A/B-Tests

Erneutes Erstellen der Bereitstellung

Bei der Neuerstellung von Bereitstellungen werden alle vorhandenen Instanzen beendet, bevor neue gestartet werden. Diese Funktion verursacht kurze Ausfallzeiten, vermeidet jedoch Probleme mit der Versionskompatibilität und Ressourcenkonflikte.

Dieser Ansatz eignet sich gut für Batch-Verarbeitungssysteme, Legacy-Anwendungen und Entwicklungsumgebungen, in denen die einfache Bedienbarkeit wichtiger ist als die Betriebszeit. Teams entscheiden sich für die Neuerstellung von Bereitstellungen, wenn sie kurze Ausfallzeiten in Kauf nehmen können, um dafür ein vorhersehbares Verhalten zu erhalten.

Fortlaufende Bereitstellung von Updates

Rollierende Updates ersetzen Instanzen schrittweise, während die Anwendung verfügbar bleibt. Dieser Ansatz ist die Standardstrategie von Kubernetes, da er Geschwindigkeit, Ressourcennutzung und Risiko in Einklang bringt.

CMS verwenden in der Regel rollierende Updates, um eine kontinuierliche Bereitstellung von Funktionen ohne Unterbrechung für die Benutzer zu ermöglichen. Allerdings müssen Anwendungen für Umgebungen mit gemischten Versionen konzipiert sein. Wenn verschiedene Versionen nicht gleichzeitig zusammen ausgeführt werden können, werden rollierende Updates problematisch.

Kubernetes ersetzt alte Pods schrittweise durch neue Instanzen, so dass die vorherige Version reibungslos auslaufen kann. Teams können diesen Prozess über kubectl-Befehle initiieren.

Blue-Green-Bereitstellung

Bei Blue-Green-Bereitstellungen werden zwei vollständige Produktionsumgebungen aufrechterhalten und der gesamte Datenverkehr sofort zwischen diesen umgeschaltet. Diese Strategie ermöglicht ein sofortiges Rollback, verdoppelt aber auch die Infrastrukturkosten während der Bereitstellung.

Zahlungsabwicklungssysteme, Kundendatenbanken, Authentifizierungsdienste und Anwendungen zur Einhaltung gesetzlicher Vorschriften nutzen Blue-Green-Deployments, wenn die Infrastrukturkosten im Vergleich zum Risiko einer Serviceunterbrechung überschaubar sind. Teams können eine vollständige Validierung der neuen Umgebung durchführen, bevor sie den Datenverkehr verlagern.

Canary-Bereitstellung

Canary-Bereitstellungen leiten einen kleinen Teil des Datenverkehrs an die neue Version weiter und überwachen gleichzeitig die Leistung und die Fehlerquoten. Die Teams erhöhen den Datenverkehr schrittweise, bis alle die neueste Version verwenden.

Diese Strategie ermöglicht es Teams, Probleme mit einer begrenzten Nutzerbasis zu identifizieren, anstatt alle Nutzer zu beeinträchtigen. Canary-Bereitstellungen tragen dazu bei, das Rollout-Risiko zu verringern, indem sie eine Teilmenge des Datenverkehrs auf die neue Version leiten. Mobile Apps, die neue Schnittstellen testen, SaaS-Plattformen, die Leistungsverbesserungen validieren, und E-Commerce-Websites, die Änderungen am Checkout-Prozess testen, stützen sich alle auf diese Bereitstellungsstrategie.

Schatten-Bereitstellung

Shadow-Bereitstellungen duplizieren den Produktionsdatenverkehr sowohl für die aktuelle Version (die Benutzer bedient) als auch für die neue Version (die Anfragen stillschweigend für Testzwecke verarbeitet). Benutzer sind nicht der Schattenversion ausgesetzt, sondern Teams erhalten eine vollständige Leistungsvalidierung gegenüber echten Workloads.

Schattenbereitstellungen ermöglichen es Systemen, neue Funktionen unter realen Bedingungen zu testen, ohne Benutzer zu beeinträchtigen. Suchmaschinen verwenden sie, um Ranking-Algorithmen zu testen, Empfehlungssysteme verlassen sich auf sie, um Modelle für maschinelles Lernen (ML) zu validieren, und Betrugserkennungssysteme verwenden sie, um aktualisierte Regeln zu bewerten.

Bereitstellung von A/B-Tests

A/B-Testbereitstellungen leiten verschiedene Benutzersegmente an verschiedene Anwendungskonfigurationen weiter, um Metriken und Benutzerverhalten zu messen. Im Gegensatz zu Bereitstellungen, die sich auf technische Metriken konzentrieren, bewerten A/B-Tests die Effektivität von Funktionen und die Erfahrung des Benutzers.

Produktteams nutzen A/B-Test-Bereitstellungen auch, um neue Benutzeroberflächen zu validieren, Preismodelle zu testen oder Empfehlungsalgorithmen zu bewerten.

Kubernetes-Bereitstellungen im Vergleich zu Pods – StatefulSets und ReplicaSets

Wenn man versteht, wie Deployments mit anderen Kubernetes-Ressourcen zusammenpassen, wird klarer, wann welcher Ansatz verwendet werden sollte.

Kubernetes-Bereitstellungen im Vergleich zu Pods

Pods sind einzelne Anwendungsinstanzen, aber das direkte Verwalten von Pods wird schnell kompliziert. Kubernetes-Bereitstellungen übernehmen die Verwaltungsebene, sodass sich Teams auf die Anwendungslogik statt auf die Container-Orchestrierung konzentrieren können.

Kubernetes-Bereitstellungen im Vergleich zu ReplicaSets

ReplicaSets sind Kubernetes-Objekte, die sicherstellen, dass die richtige Anzahl von Instanzen ausgeführt wird. Kubernetes-Bereitstellungen bieten Änderungsmanagement, einschließlich Versionierung, Updates und Rollback-Funktionen, die Anwendungsupdates vereinfachen.

Kubernetes-Bereitstellungen im Vergleich zu StatefulSets

StatefulSets sind Kubernetes-Objekte, die persistente Identitäten und geordnete Operationen für Pods verwalten. Kubernetes-Bereitstellungen eignen sich besser für zustandslose Anwendungen, bei denen Pods als identische, austauschbare Einheiten behandelt werden können, während StatefulSets zustandsbehaftete Anwendungen verarbeiten, die stabile Identitäten und sequenzielle Skalierung erfordern.

Best Practices und Überlegungen

Erfolgreiche Kubernetes-Bereitstellungsstrategien erfordern solide betriebliche Praktiken, die zuverlässige, wiederholbare Bereitstellungen in verschiedenen Umgebungen und für verschiedene Anwendungstypen unterstützen:

  • Überwachung und Observability
  • Zustandsprüfungen und Bereitschaftsprüfungen
  • Automatisierte Testintegration
  • Rollback-Planung und -Ausführung

Überwachung und Observability

Kubernetes-Monitoring bietet Teams Einblick indie Anwendungsleistung, Geschäftsmetriken, Fehlerquoten und Benutzererfahrung, sodass sie während der Bereitstellung fundierte Entscheidungen treffen und Probleme frühzeitig erkennen können.

Advanced Observability-Plattformen gehen diesen Approach weiter, indem sie die Bereitstellung mit der Leistung integrieren und es den Teams ermöglichen, die Bereitstellungsereignisse mit dem Systemverhalten und den Auswirkungen auf die Benutzer zu korrelieren.

Zustandsprüfungen und Bereitschaftstests

Richtig konfigurierte Zustandsprüfungen stellen sicher, dass neue Anwendungsinstanzen voll funktionsfähig sind, bevor sie Datenverkehr empfangen. Dieser Mechanismus verhindert, dass fehlgeschlagene Bereitstellungen Auswirkungen auf Benutzer haben, und ermöglicht ein automatisches Rollback, wenn Probleme erkannt werden.

Kubernetes-Bereitschaftsprüfungen sollten validieren, dass nicht nur die Anwendung ausgeführt wird, sondern auch, dass sie bereit ist, den Produktionsverkehr zu verarbeiten, einschließlich Datenbankverbindungen, externe Serviceabhängigkeiten und alle erforderlichen Initialisierungsprozesse.

Automatisierte Testintegration

Automatisierte Tests erfordern eine Implementierung in mehreren Phasen, einschließlich Komponententests, Integrationstests, End-to-End-Validierung und Leistungstests. Dieser umfassende Ansatz hilft, Probleme frühzeitig zu erkennen und das Risiko von Produktionsproblemen zu reduzieren.

Moderne Deployment-Pipelines integrieren Tests in Deployment-Strategien und fördern Builds automatisch durch Umgebungen auf der Grundlage von Testergebnissen und Leistungsmetriken anstelle von manuellen Genehmigungsprozessen.

Rollback-Planung und -Ausführung

Effektive Rollback-Strategien erfordern eine sorgfältige Vorbereitung und Prüfung, bevor Probleme bei der Bereitstellung auftreten. Teams müssen wissen, wie sie Deployments schnell umkehren können, potenzielle Herausforderungen bei der Datenkonsistenz vorhersehen und klare Kommunikationsprotokolle erstellen, um eine schnelle Wiederherstellung bei Problemen zu gewährleisten.

Integration von Kubernetes-Bereitstellungsstrategien

Anstatt Bereitstellungsstrategien als sich gegenseitig ausschließende Optionen zu betrachten, ziehen viele Unternehmen einen erheblichen Mehrwert aus der Kombination mehrerer Ansätze. Dieser hybride Ansatz nutzt die Stärken jeder Strategie und beseitigt gleichzeitig deren Grenzen.

Plattformteams standardisieren oft standardmäßig auf fortlaufende Updates. Blue-Green-Bereitstellungen sind für kritische Anwendungen verfügbar, während Kanarienbereitstellungen für Funktionen mit hoher Sichtbarkeit verwendet werden.

Große Unternehmen setzen unterschiedliche Strategien für verschiedene Anwendungsebenen ein: Blue-Green für benutzerseitige Dienste, rollierende Updates für interne APIs und Microservices und Neuanlagen für Komponenten der Stapelverarbeitung.

Unternehmen kombinieren häufig Strategien innerhalb einzelner Bereitstellungspipelines: Schattenbereitstellungen zur Leistungsvalidierung, gefolgt von Canary-Rollouts für eine schrittweise Einbindung der Benutzer, mit Blue-Green-Funktionen für ein sofortiges Rollback, wenn Probleme auftreten.

Zusammenfassung

Strategische Einsatzentscheidungen bestimmen, ob Teams selbstbewusst ihre Aufgaben erfüllen oder ständig Krisen bewältigen müssen. Unternehmen, die sich durch vielfältige Ansätze auszeichnen, verändern ihre Lieferfähigkeit grundlegend und erzielen schnellere Zyklen und eine verbesserte Zuverlässigkeit. Durch die Anpassung des Ansatzes an jedes einzelne Szenario in der modernen Anwendungsentwicklung fördert diese Strategie ein stärkeres Vertrauen in den Betrieb.

Weiterführende Lösungen
IBM Red Hat OpenShift

Red Hat OpenShift on IBM Cloud ist eine vollständig verwaltete OpenShift Container Platform (OCP).

Red Hat OpenShift erkunden
Container-Lösungen

Container-Lösungen führen Container-Workload aus und skalieren sie mit Sicherheit, Open-Source-Innovation und schneller Bereitstellung.

Container erkunden
Cloud-Beratungsleistungen 

Schalten Sie mit IBM Cloud Consulting Services neue Funktionen frei und steigern Sie die geschäftliche Agilität. Entdecken Sie, wie Sie mit Hybrid-Cloud-Strategien und Expertenpartnerschaften gemeinsam Lösungen entwickeln, die digitale Transformation beschleunigen und die Leistung optimieren können.

Cloud-Services
Machen Sie den nächsten Schritt

Modernisieren Sie Ihre Infrastruktur mit den Containerlösungen von IBM. Mit der umfassenden Container-Plattform von IBM können Sie containerisierte Workloads flexibel, sicher und effizient über verschiedene Umgebungen hinweg ausführen, skalieren und verwalten.

Containerlösungen kennenlernen Kostenloses IBM Cloud-Konto erstellen
Fußnoten