Mein IBM Anmelden Abonnieren

Veröffentlicht: 10. Juni 2024
Mitwirkende: Stephanie Susnjara, Ian Smalley

Was ist Serverless Computing?

Was ist Serverless Computing?

Serverless Computing ist ein Modell für die Entwicklung und Ausführung von Cloud-Anwendungen, mit dem Entwickler Anwendungscode erstellen und ausführen können, ohne Server oder Backend-Infrastruktur bereitstellen oder verwalten zu müssen.

Serverless bedeutet nicht „keine Server”. Ungeachtet des Namens werden Server im serverlosen Computing von einem Cloud-Service-Anbieter (CSP) verwaltet. „Serverlos” beschreibt die Erfahrung des Entwicklers mit diesen Servern – sie sind für den Entwickler unsichtbar, er sieht sie nicht, verwaltet sie nicht und interagiert in keiner Weise mit ihnen.

Entwickler können sich darauf konzentrieren, den besten Front-End-Anwendungscode und die beste Geschäftslogik mit serverlosem Computing zu schreiben. Sie müssen lediglich ihren Anwendungscode schreiben und ihn in Containern bereitstellen, die von einem CSP verwaltet werden.

Der Cloud-Provider kümmert sich um den Rest – die Bereitstellung der Cloud-Infrastruktur, die für die Ausführung des Codes erforderlich ist, und die bedarfsgerechte Skalierung der Infrastruktur nach oben und unten. Zusätzlich ist er für das gesamte routinemäßige Infrastrukturmanagement und die Wartung verantwortlich, wie z. B. Betriebssystem-Updates und -Patches, Sicherheitsmanagement, Kapazitätsplanung, Systemüberwachung und vieles mehr.

Darüber hinaus zahlen Entwickler nie für ungenutzte Kapazität mit Serverless. Der Cloud-Provider fährt die erforderlichen Rechenressourcen bei Bedarf hoch und stellt sie bereit, wenn der Code ausgeführt wird, und fährt sie wieder herunter (das sogenannte „Skalieren auf Null“), wenn die Ausführung stoppt. Die Abrechnung beginnt mit dem Start der Ausführung und endet, wenn die Ausführung stoppt. Typischerweise basiert die Preisgestaltung auf der Ausführungszeit und den erforderlichen Ressourcen.

Neben Infrastructure as a Service (IaaS), Platform as a Service (PaaS), Function as a Service (FaaS) und Software as a Service (SaaS) hat sich Serverless zu einem führenden Cloud-Service entwickelt. Laut einem Bericht von SkyQuest Technology wurde der weltweite Markt für serverlose Architektur im Jahr 2022 auf 8,01 Milliarden US-Dollar geschätzt und soll von 9,84 Milliarden US-Dollar im Jahr 2023 auf 50,86 Milliarden US-Dollar im Jahr 2031 wachsen1. Heute bietet jeder führende Cloud-Service-Provider eine serverlose Plattform an, z. B. Amazon Web Services (AWS Lambda), Microsoft Azure (Azure Functions), Google Cloud (Google Cloud Functions) und IBM Cloud (IBM Cloud Code Engine).

Serverloses Computing, Microservices und Container bilden zusammen ein Dreigestirn von Technologien, die im Mittelpunkt der Entwicklung cloudnativer Anwendungen stehen.

In diesem Video erhalten Sie eine detaillierte Erklärung zu Serverless und dem Serverless Stack (6:37).

Die Ursprünge von Serverless

Die Ursprünge von Serverless

Serverless entstand 2008, als Google die Google App Engine (GAE) veröffentlichte, eine Plattform für die Entwicklung und das Hosting von Webanwendungen in von Google verwalteten Rechenzentren. Mit GAE konnte ein Softwareentwickler Software in der Google Cloud erstellen und starten, ohne sich um Serververwaltungsaufgaben wie Patching oder Lastverteilung kümmern zu müssen, da diese von Google übernommen wurden.

Der Begriff „serverlos“ tauchte erstmals 2012 in einem Fachartikel des Cloud-Computing-Spezialisten Ken Fromm auf2. Im Jahr 2014 führte Amazon AWS Lambda ein, die erste serverlose Plattform. Benannt nach Funktionen aus dem Programmieralgorithmus Lambda, verhalf AWS Lambda, ein FaaS-Modell, dem Serverless-Computing-Framework zu einer größeren Attraktivität für den Massenmarkt und einer schnellen Akzeptanz bei Softwareentwicklern, indem es ihnen ermöglichte, Code als Reaktion auf Ereignisse auszuführen, ohne dass eine Serververwaltung erforderlich war. Im Jahr 2016 führten Microsoft Azure Functions und Google Cloud Functions ihre serverlosen Plattformen ein.

Zu den weiteren wichtigen Akteuren auf dem heutigen Markt für serverlose Plattformen gehören IBM Cloud Code Engine, Oracle Cloud Infrastructure (OCI) Functions, Cloudflare Workers und Alibaba Function Compute.

Das serverlose Ökosystem

Das serverlose Ökosystem

Serverless und FaaS

Serverless ist mehr als nur Function-as-a-Service (FaaS) – der Cloud-Computing-Service, der es Entwicklern ermöglicht, Code oder Container als Reaktion auf bestimmte Ereignisse oder Anfragen auszuführen, ohne die für die Ausführung des Codes erforderliche Infrastruktur angeben oder verwalten zu müssen.

FaaS ist das zentrale Rechenmodell für Serverless, und die beiden Begriffe werden oft synonym verwendet. Im Vergleich zu FaaS ist Serverless ein ganzer Stack an Diensten, die auf bestimmte Ereignisse oder Anfragen reagieren und bei Nichtgebrauch auf Null skaliert werden können – und deren Bereitstellung, Verwaltung und Abrechnung vom Cloud-Provider übernommen werden und für Entwickler unsichtbar sind.

Zusätzlich zu FaaS umfassen diese Dienste Datenbanken und Speicher, Application Programming Interface (API)-Gateways und ereignisgesteuerte Architektur.

Serverlose Datenbanken und Speicher

Datenbanken (SQL und NoSQL) und Speicher (insbesondere Object Storage) bilden die Grundlage der Datenschicht. Ein serverloser Ansatz für diese Technologien beinhaltet die Abkehr von der Bereitstellung von „Instanzen“ mit definierten Kapazitäts-, Verbindungs- und Abfragebeschränkungen und die Hinwendung zu Modellen, die sowohl in der Infrastruktur als auch in der Preisgestaltung linear mit der Nachfrage skalieren.

API-Gateways

API-Gateways fungieren als Proxy für Webaktionen und stellen HTTP-Methodenrouting, Client-ID und vertrauliche Daten, Quotengrenzen, CORS, die Anzeige der API-Nutzung, die Anzeige von Antwortprotokollen und API-Freigaberichtlinien bereit.

Serverlose und ereignisgesteuerte Architektur

Serverlose Architekturen eignen sich gut für ereignisgesteuerte und Stream-Verarbeitungs-Workloads, insbesondere die Open-Source-Event-Streaming-Plattform Apache Kafka.

Automatisierte serverlose Funktionen sind zustandslos und für die Verarbeitung einzelner Ereignisse ausgelegt. Diese Funktionen sind zu einem wesentlichen Bestandteil der Ereignisgesteuerten Architektur (EDA) geworden – einem Software-Designmodell, das auf der Veröffentlichung, Erfassung, Verarbeitung und Speicherung von Ereignissen basiert. In einem EDA-Framework senden Ereignisproduzenten (z. B. Microservices, APIs, IoT-Geräte) Echtzeit-Ereignis-Benachrichtigungen an Ereignisverbraucher und aktivieren so bestimmte Verarbeitungsroutinen. Wenn Netflix beispielsweise eine neue Originalserie veröffentlicht, warten mehrere EDA-Dienste in Bereitschaft auf die Veröffentlichungsbenachrichtigung, die eine Kaskade von Updates auslöst, um die Benutzer zu informieren. Viele andere Unternehmen, die auf benutzerseitigen Web- und Mobilanwendungen basieren (z. B. Uber, DoorDash, Instacart), setzen auf ereignisgesteuerte Architektur.

Serverless vs. PaaS, Container und VMs

Da Serverless, Platform-as-a-Service (PaaS), Container und Virtual Machines (VMs) alle eine entscheidende Rolle im Cloud-Anwendungsentwicklungs- und Computing-Ökosystem spielen, lohnt sich ein Blick darauf, wie Serverless im Vergleich zu den anderen hinsichtlich einiger Schlüsselattribute abschneidet.

  • Bereitstellungszeit: Gemessen in Millisekunden für Serverless-Modelle und in Minuten bis Stunden für die anderen Modelle.
  • Verwaltungsaufwand: Keiner für Serverless, im Vergleich zu einem Kontinuum von leichtem über mittleren bis hohem Aufwand für PaaS, Container bzw. VMs.
  • Wartung: Serverlose Architekturen werden von CSPs zu 100 % verwaltet. Das gilt auch für PaaS; Container und VMs erfordern jedoch umfangreiche Wartungsarbeiten, die das Aktualisieren/Verwalten von Betriebssystemen, Container-Images, Verbindungen usw. umfassen.
  • Skalierung: Die automatische Skalierung, einschließlich der automatischen Skalierung auf Null, erfolgt sofort und ist für serverlose Systeme inhärent. Die anderen Modelle bieten eine automatische, aber langsame Skalierung, die eine sorgfältige Abstimmung der Auto-Scaling-Regeln erfordert, und keine Skalierung auf Null.
  • Kapazitätsplanung: Für Serverless nicht erforderlich. Die anderen Modelle erfordern eine Mischung aus automatischer Skalierbarkeit und Kapazitätsplanung.
  • Statuslosigkeit: Inhärent bei Serverless-Systemen, was bedeutet, dass Skalierbarkeit nie ein Problem darstellt. Der Status wird in einem externen Dienst oder einer externen Ressource verwaltet. PaaS, Container und VMs können HTTP verwenden, einen Socket oder eine Verbindung über einen längeren Zeitraum offen halten und den Status zwischen Aufrufen im Speicher ablegen.
  • Hohe Verfügbarkeit (HA) und Disaster Recovery (DR): Serverless bietet sowohl Hochverfügbarkeit als auch Disaster Recovery ohne zusätzlichen Aufwand oder zusätzliche Kosten. Für die anderen Modelle fallen zusätzliche Kosten und mehr Verwaltungsaufwand an. Die Infrastruktur kann mit VMs und Containern automatisch neu gestartet werden.
  • Ressourcennutzung: Serverless ist zu 100 % effizient, da es keine ungenutzte Kapazität gibt – es wird nur auf Anfrage aufgerufen. Alle anderen Modelle weisen zumindest ein gewisses Maß an ungenutzter Kapazität auf.
  • Abrechnung und Einsparungen: Serverless wird in Einheiten von 100 Millisekunden gemessen. PaaS, Container und VMs werden normalerweise in Stunden oder Minuten gemessen.

Serverless, Kubernetes und Knative

Kubernetes ist eine Open-Source-Plattform zur Container-Orchestrierung, die die Bereitstellung, Verwaltung und Skalierung von Containern automatisiert. Die Automatisierung vereinfacht die Entwicklung von containerisierten Anwendungen erheblich.

Serverlose Anwendungen werden häufig in Containern bereitgestellt. Kubernetes kann jedoch nur dann serverlose Apps unabhängig ausführen, wenn eine spezielle Software vorhanden ist, die Kubernetes in die serverlose Plattform eines bestimmten Cloud-Providers integriert.

Knative ist eine Open-Source-Erweiterung für Kubernetes, die ein Framework ohne Server bereitstellt. Sie ermöglicht es, jeden Container als serverlosen Workload auf jeder Cloud-Plattform auszuführen, auf der Kubernetes läuft, unabhängig davon, ob der Container um eine serverlose Funktion oder einen anderen Anwendungscode (z. B. Microservices) herum aufgebaut ist. Knative abstrahiert den Code und übernimmt das Netzwerkrouting, Ereignisauslöser und Auto-Scaling für die serverlose Ausführung.

Knative ist für Entwickler transparent. Sie erstellen einen Container mithilfe von Kubernetes und Knative erledigt den Rest, indem es den Container als serverlosen Workload ausführt.

Vor- und Nachteile von Serverless

Vor- und Nachteile von Serverless

Vorteile

Serverless Computing bietet einzelnen Entwicklern und Entwicklungsteams in Unternehmen viele technische und geschäftliche Vorteile:

  • Verbesserte Entwicklerproduktivität: Wie bereits erwähnt, können sich Entwicklungsteams mit Serverless auf das Schreiben von Code konzentrieren und die Verwaltung der Infrastruktur außer Acht lassen. Sie haben so viel mehr Zeit für neue oder optimierte Front-End-Anwendungsfunktionen und Geschäftslogik.
  • Bezahlung nur bei Ausführung: Der Zähler startet, wenn die Anfrage gestellt wird, und endet, wenn die Ausführung abgeschlossen ist. Vergleichen Sie dies mit dem IaaS-Rechenmodell, bei dem Kunden für die physischen Server, VMs und andere Ressourcen bezahlen, die für die Ausführung von Anwendungen erforderlich sind, und zwar von der Bereitstellung dieser Ressourcen bis zu ihrer ausdrücklichen Außerbetriebnahme.
  • Entwickeln Sie in jeder Sprache: Serverless ist eine polyglotte Umgebung, die es Entwicklern ermöglicht, in jeder Sprache oder jedem Framework – Java, Python, JavaScript, node.js – zu programmieren, mit dem sie vertraut sind.
  • Optimierte Entwicklung oder DevOps-Zyklen: Serverless vereinfacht die Bereitstellung und im weiteren Sinne auch DevOps, da Entwickler keine Zeit damit verbringen müssen, die für die Integration, das Testen, die Bereitstellung und die Implementierung von Code-Builds in die Produktion erforderliche Infrastruktur zu definieren.
  • Kosteneffiziente Leistung: Für bestimmte Workloads (z. B. exakt parallele Prozesse, Stream-Verarbeitung, bestimmte Datenverarbeitungsaufgaben) kann serverloses Computing sowohl schneller als auch kostengünstiger sein als andere Formen der Datenverarbeitung.
  • Geringere Latenz: In einer serverlosen Umgebung kann der Code näher am Endbenutzer ausgeführt werden, wodurch die Latenz verringert wird.
  • Sichtbarkeit der Nutzung: Serverlose Plattformen bieten eine nahezu vollständige Transparenz der System- und Benutzerzeiten und können Nutzungsinformationen systematisch zusammenfassen.

Nachteile

Obwohl Serverless viele Vorteile hat, ist es wichtig, einige Nachteile zu berücksichtigen:

  • Weniger Kontrolle: In einer serverlosen Umgebung übergibt ein Unternehmen die Serverkontrolle an einen externen CSP und gibt damit die Verwaltung der Hardware und der Ausführungsumgebungen ab.
  • Anbieterbindung: Jeder Service-Provider bietet einzigartige serverlose Funktionen und Merkmale, die mit denen anderer Anbieter nicht kompatibel sind.
  • Langsamer Start: Auch als „Kaltstart“ bekannt, kann ein langsamer Start die Leistung und Reaktionsfähigkeit von serverlosen Anwendungen beeinträchtigen, insbesondere in Umgebungen mit Echtzeitnachfrage. 
  • Komplexe Tests und Debugging: Die Fehlerbehebung kann bei einem serverlosen Computing-Modell komplizierter sein, da Entwickler keinen Einblick in die Back-End-Prozesse haben.
  • Höhere Kosten für die Ausführung langfristiger Anwendungen: Serverlose Ausführungsmodelle sind nicht dafür ausgelegt, Code über längere Zeiträume auszuführen. Daher können langfristige Prozesse mehr kosten als herkömmliche dedizierte Server- oder VM-Umgebungen.
Serverless und Sicherheit

Serverless und Sicherheit

CSPs bieten zwar Sicherheitsmaßnahmen zur Verwaltung serverloser Anwendungen, doch der Kunde ist auch für die Sicherung des Anwendungscodes und der Daten gemäß einem Modell der geteilten Verantwortung verantwortlich. Zu den cloudbasierten Sicherheitsmaßnahmen für Serverless gehören automatisierte Sicherheitsrichtlinien und -lösungen wie Sicherheitsinformationen und Ereignismanagement (SIEM), Identity und Access Management (IAM) sowie Bedrohungserkennung und -reaktion.

Die Anwendung von DevSecOps-Praktiken hilft Entwicklungsteams, serverlose Technologien zu sichern. DevSecOps, eine Abkürzung für Development (Entwicklung), Security (Sicherheit) und Operations (Betrieb), ist eine Praxis der Anwendungsentwicklung, die die Integration von Sicherheit und Sicherheitspraktiken in jeder Phase des Lebenszyklus der Softwareentwicklung automatisiert, vom anfänglichen Design über die Integration, das Testen, die Bereitstellung und den Einsatz.

Serverless und Nachhaltigkeit

Serverless und Nachhaltigkeit

Im Gegensatz zu herkömmlichen lokalen Rechenzentrumsumgebungen kann ein Serverless-Computing-Modell Unternehmen dabei helfen, den Energieverbrauch zu senken und ihre CO2-Bilanz für den IT-Betrieb zu reduzieren.

Zudem ermöglicht ein serverloses Modell Unternehmen, ihre Emissionen durch Ressourceneffizienz zu optimieren, indem sie nur für die benötigten Ressourcen bezahlen und auch nur diese nutzen. Diese Funktion führt dazu, dass weniger Energie für ungenutzte oder überschüssige Prozesse verschwendet wird.

Anwendungsfälle für Serverless

Anwendungsfälle für Serverless

Aufgrund ihrer einzigartigen Eigenschaften und Vorteile eignet sich die serverlose Architektur am besten für Anwendungsfälle, die Microservices, mobile Backends und die Verarbeitung von Daten- und Event Streams umfassen.

Serverless und Microservices

Am häufigsten wird Serverless derzeit bei der Unterstützung von Microservices-Architekturen angewandt. Das Microservices-Modell konzentriert sich auf die Erstellung kleiner Dienste, die eine einzige Aufgabe erledigen und über APIs miteinander kommunizieren. Zwar können Microservices auch mit PaaS oder Containern erstellt und betrieben werden, aber Serverless hat aufgrund seiner Eigenschaften rund um kleine Code-Teile, inhärente und automatische Skalierung, schnelle Bereitstellung und ein Preisgestaltungsmodell, bei dem keine Gebühren für ungenutzte Kapazität erhoben werden, erheblich an Bedeutung gewonnen.

API-Backends

Jede Aktion (oder Funktion) auf einer serverlosen Plattform kann in einen HTTP-Endpunkt umgewandelt werden, der von Web-Clients genutzt werden kann. Wenn diese Aktionen für das Web aktiviert sind, werden sie als Webaktionen bezeichnet. Sobald Sie über Webaktionen verfügen, können Sie diese in einer voll funktionsfähigen API mit einem API Gateway zusammenfassen, das mehr Sicherheit, OAuth3-Unterstützung, Ratenbegrenzung und Unterstützung für benutzerdefinierte Domains bietet.

Open Liberty InstantOn (CRIU)

Open Liberty InstantOn4 verfolgt einen neuartigen Ansatz, um die schnelle Inbetriebnahme von serverlosen Anwendungen zu unterstützen. Mit InstantOn können Sie während der Anwendungserstellung einen Checkpoint Ihres laufenden Java-Anwendungsprozesses erstellen und diesen Checkpoint dann in der Produktion wiederherstellen. Die Wiederherstellung erfolgt schnell (in wenigen 100 Millisekunden), was sie ideal für serverlose Anwendungen macht. Da InstantOn ein Checkpoint Ihrer vorhandenen Anwendung ist, ist das Verhalten nach der Wiederherstellung identisch, einschließlich der gleichen hervorragenden Durchsatzleistung. Dieser Prozess bietet Unternehmen die Möglichkeit, neue cloudnative Anwendungen serverlos zu gestalten und Serverless-Technologie in bestehende Unternehmen zu integrieren.

Datenverarbeitung

Serverless eignet ich besonders für die Arbeit mit strukturierten Text-, Audio-, Bild- und Videodaten im Zusammenhang mit Aufgaben wie der Anreicherung, Transformation, Validierung und Bereinigung von Daten. Entwickler können es auch für die PDF-Verarbeitung, die Audio-Normalisierung, die Bildverarbeitung (Drehung, Schärfung, Rauschunterdrückung, Erstellung von Miniaturansichten), die optische Zeichenerkennung (OCR) und die Videotranskodierung verwenden.

Massiv parallele Rechen- und Zuordnungsabläufe

Jede exakt parallele Aufgabe ist ein guter Anwendungsfall für eine serverlose Laufzeit, wobei jede parallelisierbare Aufgabe zu einem Aktionsaufruf führt. Beispielaufgaben umfassen Datensuche und -verarbeitung (insbesondere Cloud Object Storage), MapReduce-Abläufe und Web Scraping, Geschäftsprozessautomatisierung, Hyperparameter-Tuning, Monte-Carlo-Simulationen und Genomverarbeitung.

Verarbeitungs-Workload streamen

Die Kombination von verwaltetem Apache Kafka mit FaaS und Datenbank oder Speicher bietet eine solide Grundlage für Echtzeit-Ausbauten von Datenpipelines und Streaming-Apps. Diese Architekturen sind ideal für die Arbeit mit allen Arten der Datenstromaufnahme (zur Validierung, Bereinigung, Anreicherung, Transformation), einschließlich IoT-Sensordaten, Anwendungsprotokolldaten, Finanzmarktdaten und Geschäftsdatenströmen (aus anderen Datenquellen).

KI und Serverless

Serverless bietet die automatisierte Skalierbarkeit, die für die Ausführung von Workloads für künstliche Intelligenz (KI) und maschinelles Lernen (ML) erforderlich ist, und gewährleistet so eine optimale Leistung und beschleunigt Innovationen.

Hybrid Cloud und Serverless

Serverless Computing unterstützt eine Hybrid Cloud-Strategie, indem es die Agilität, Flexibilität und Skalierbarkeit bietet, die erforderlich ist, um schwankende Workloads in lokalen, Public Cloud-, Private Cloud- und Edge-Umgebungen auszugleichen.

Gängige Anwendungen für Serverless

Serverless unterstützt viele der heute gängigsten Anwendungen, darunter Customer Relationship Management (CRM), High Performance Computing (HPC), Big Data Analytics, Geschäftsprozessautomatisierung, Video-Streaming, Gaming, Telemedizin, Digital Commerce, Chatbot-Erstellung und vieles mehr.

Tutorials: Erste Schritte mit Serverless

Tutorials: Erste Schritte mit Serverless

Mit diesen Tutorials erweitern Sie Ihre Kenntnisse im Bereich Serverless Computing:

  • Erleben Sie Liberty InstantOn (CRIU): Erschließen Sie mit IBM WebSphere Liberty neue Werte für Ihr Unternehmen, indem Sie Ihre Cloud-Bereitstellung optimieren und die betriebliche Effizienz verbessern. Liberty InstantOn bietet eine bessere Möglichkeit, eine serverlose Performance ohne Kompromisse zu erzielen.
  • Batch-Jobs ausführen: Erfahren Sie, wie Sie einen Batch-Job ausführen, der die Code Engine-Konsole verwendet. Ein Job führt eine oder mehrere Instanzen Ihres ausführbaren Codes aus. Im Gegensatz zu Anwendungen, die HTTP-Anfragen verarbeiten, sind Jobs so konzipiert, dass sie nur einmal ausgeführt und dann beendet werden.
Lösungen

Lösungen

IBM Cloud Code Engine

Ausführung Ihrer Container, Anwendungscodes oder Stapeljobs in einer vollständig verwalteten Containerlaufzeit.

IBM Cloud Code Engine kennenlernen
IBM Cloud Pak for Applications

Ganz gleich, ob es um die Bereitstellung, die Entwicklung neuer cloudnativer Anwendungen, das Refactoring oder die Umstellung bestehender Anwendungen geht – Cloud Pak for Applications (CP4Apps) deckt alles ab.

Erkunden Sie IBM Cloud Pak for Applications
IBM Cloud Satellite

Anwendungen lassen sich konsistent in lokalen, Edge-Computing- und Public-Cloud-Umgebungen beliebiger Cloud-Anbietern bereitstellen und ausführen.

IBM Cloud Satellite kennenlernen
IBM Cloudant

Die Datenschicht für hyperskalierbare, resiliente, global verfügbare Anwendungen, basierend auf Open Source Apache CouchDB.

IBM Cloudant kennenlernen
Serverlose Überwachung von Instana

Überwachen Sie Ihre serverlosen Anwendungen und Services, um Leistung, Verfügbarkeit und Sicherheit zu optimieren.

Erkunden Sie die serverlose Überwachung von Instana
Machen Sie den nächsten Schritt

Serverloses Computing bietet eine einfachere und kostengünstigere Möglichkeit, Anwendungen in der Cloud zu erstellen und zu betreiben. Erfahren Sie mehr über IBM Cloud Code Engine, eine serverlose Plattform mit nutzungsabhängiger Bezahlung, mit der Entwickler serverlose Anwendungen und Workflows bereitstellen können, ohne dass Kubernetes-Kenntnisse erforderlich sind.

Cloud Code Engine kennenlernen
Fußnoten

(Alle Links befinden sich außerhalb von ibm.com)

Global Serverless Architecture Market Report, SkyQuest, März 2024

Why The Future Of Software And Apps Is Serverless, ReadWrite, Oktober 2012

3 About OAuth 2.0, OAuth

4 Faster startup for containerized applications with Open Liberty InstantOn, Open Liberty