IT-Manager stehen in ihren Rollen häufig vor Herausforderungen hinsichtlich der Skalierbarkeit. Die Vorhersage der Wachstumsraten von Anwendungen, der Anforderungen an die Datenspeicherkapazität und der Bandbreitenanforderungen ist keine leichte Aufgabe. Wenn sich ein Workload seinen Kapazitätsgrenzen nähert, stellt sich die Frage, wie wir eine hohe Leistung aufrechterhalten und gleichzeitig die Effizienz sicherstellen können, wenn wir die Architektur skalieren oder verkleinern.
Die Möglichkeit, die Macht der Cloud schnell zu nutzen, sei es durch Skalierung nach oben oder nach außen, um unvorhergesehenes schnelles Wachstum oder saisonale Nachfrageschwankungen zu bewältigen, hat sich zu einem bedeutenden Vorteil von öffentlichen Cloud-Diensten entwickelt. Ohne effektives Management kann sie jedoch auch zu einer Belastung werden. Der Reiz, innerhalb weniger Minuten Zugang zu zusätzlicher Infrastruktur zu erhalten, ist unbestreitbar. Für eine effektive Nutzung müssen jedoch Entscheidungen darüber getroffen werden, welche Art von Skalierbarkeit zur Deckung der Nachfrage erforderlich ist, welche konkreten Anwendungsfälle es gibt und wie die Ausgaben sorgfältig überwacht werden sollen.
Branchen-Newsletter
Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und mehr auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Die Infrastruktur-Skalierbarkeit berücksichtigt die sich ändernden Anforderungen einer Anwendung, indem sie Ressourcen dynamisch hinzufügt oder entfernt, um den sich ändernden Anwendungsanforderungen gerecht zu werden. In den meisten Fällen wird dies durch Skalierung nach oben (vertikale Skalierung) und/oder Skalierung nach außen (horizontale Skalierung) erreicht. Es gibt zahlreiche Studien und Architekturentwicklungen rund um die Skalierbarkeit von Cloud-Umgebungen, die sich mit vielen Aspekten der Funktionsweise und der Architektur für aufkommende Kubernetes- oder Cloud-native-Anwendungen befassen. In diesem Artikel konzentrieren wir uns zunächst auf den Vergleich von Scale-up und Scale-out.
Die Skalierung, oft als vertikale Skalierung bezeichnet, erfolgt durch Hinzufügen von mehr Ressourcen zu einem bestehenden System, um einen gewünschten Leistungszustand zu erreichen. Beispielsweise benötigt ein Datenbank- oder Webserver zusätzliche Ressourcen, um die Leistung auf einem bestimmten Niveau fortzuführen und Service Level Agreements (SLAs) zu erfüllen. Diesem System können weitere CPU, Arbeitsspeicher, Speicher oder Netzwerke hinzugefügt werden, um die Leistung auf dem gewünschten Niveau zu halten.
Wenn dies in der Cloud geschieht, werden Anwendungen oft auf leistungsfähigere Instanzen oder virtuelle Maschinen verschoben und können sogar auf einen anderen Host migrieren, um Ausfallzeit zu minimieren, und dann den Server, auf dem sie waren, stilllegen. Natürlich sollte dieser Prozess für den Kunden transparent sein.
Die Skalierung kann auch in der Software erfolgen, indem mehr Threads, mehr Verbindungen hinzugefügt oder im Falle von Datenbank-Anwendungen die Cache-Größen erhöht werden. Diese Art von Scale-up-Vorgängen findet seit Jahrzehnten lokal in Rechenzentren statt. Die Zeit, die für die Beschaffung zusätzlicher Ressourcen zum Skalieren eines bestimmten Systems erforderlich ist, kann jedoch in einer lokalen Umgebung Wochen oder Monate dauern, während das Skalieren in der Cloud nur Minuten dauern kann, was sich auf die Preisgestaltung auswirken kann.
Scale-out wird in der Regel mit verteilten Architekturen in Verbindung gebracht. Es gibt zwei grundlegende Formen des Scaling-Outs:
Beide Ansätze werden heute von Modern Cloud Service Providern (CSPs) zusammen mit der vertikalen Skalierung (Aufwärtsskalierung) für einzelne Komponenten (Rechenleistung, Arbeitsspeicher, Netzwerk und Speicher) verwendet, um die Kosten zu senken. Die horizontale Skalierung (Skalierung nach außen) macht es Dienstanbietern leicht, Infrastruktur und Dienste nach dem „Pay-as-you-grow“-Prinzip anzubieten und so die Preisstrategien zu beeinflussen.
Hyperkonvergente Infrastrukturen sind für den Einsatz in Private Clouds und sogar Tier-2-Service-Providern immer beliebter geworden. Dieser Ansatz ist nicht ganz so lose gekoppelt wie andere Formen verteilter Architekturen, aber er hilft IT-Managern, die an traditionelle Architekturen gewöhnt sind, beim Übergang zur horizontalen Skalierung und bei der Realisierung der damit verbundenen Kostenvorteile.
Die lose gekoppelte verteilte Architektur ermöglicht die unabhängige Skalierung jedes Teils der Architektur, wodurch Engpässe effektiv beseitigt werden. Das bedeutet, dass eine Gruppe von Softwareprodukten als unabhängige Teile erstellt und bereitgestellt werden kann, obwohl sie zusammenarbeiten, um einen vollständigen Workflow zu verwalten. Jede Anwendung besteht aus einer Sammlung abstrahierter Dienste, die unabhängig voneinander funktionieren und betrieben werden können. Dies ermöglicht eine horizontale Skalierung sowohl auf Produkt- als auch auf Service-Ebene. Insgesamt können detailliertere Skalierungsfunktionen durch SLA oder Kundentyp (z. B. Bronze, Silber oder Gold) oder sogar durch API-Typ abgegrenzt werden, wenn die Nachfrage nach bestimmten APIs unterschiedlich hoch ist. Dies kann die effiziente Nutzung der Skalierung innerhalb einer bestimmten Infrastruktur fördern.
Service-Anbieter haben ihre Infrastrukturen kontinuierlich angepasst, um den sich verändernden Kundenbedürfnissen gerecht zu werden, wobei der Schwerpunkt auf Leistung und Effizienz liegt. Ein bemerkenswertes Beispiel ist die AWS auto-scaling, die Ressourcen an die tatsächlichen Anforderungen anpasst und sicherstellt, dass den Benutzern nur das in Rechnung gestellt wird, was sie aktiv verbrauchen. Dieser Ansatz birgt ein erhebliches Potenzial für Kosteneinsparungen, auch wenn die Entschlüsselung der komplexen Abrechnung eine Herausforderung darstellen kann.
Genau hier setzt IBM Turbonomic an, um die Cloud-Abrechnung zu vereinfachen, indem es klare Erkenntnisse in die Ausgaben bietet und fundierte Entscheidungen über Scale-Up- oder Scale-Out-Strategien ermöglicht, was zu noch größeren Einsparungen führt. Turbonomic optimiert die Budgetzuweisung für das IT-Management in lokalen und Off-Premises-Infrastrukturen, indem es eine Kostenmodellierung für beide Umgebungen und Migrationspläne ermöglicht, um eine optimale Workload-Leistung und -Effizienz zu gewährleisten und gleichzeitig Leistungsprobleme zu minimieren.
Für die heutigen Cloud-Service-Provider sind lose gekoppelte, verteilte Architekturen für die Skalierung in der Cloud von entscheidender Bedeutung und in Verbindung mit der Cloud-Automatisierung erhalten die Kunden viele Optionen für die vertikale oder horizontale Skalierung, die optimal auf ihre Geschäftsanforderungen zugeschnitten sind. Turbonomic kann Ihnen dabei helfen, sicherzustellen, dass Sie auf Ihrer Cloud-Reise die besten Optionen auswählen, die auf Ihre spezifischen Speichersystemanforderungen abgestimmt sind.
IBM Cloud Infrastructure Center ist eine mit OpenStack kompatible Softwareplattform für die Verwaltung der Infrastruktur von Private Clouds auf IBM zSystems und IBM LinuxONE.
Entdecken Sie Server, Speicher und Software für die Hybrid-Cloud- und KI-Strategie Ihres Unternehmens.
Finden Sie die richtige Cloud-Infrastrukturlösung für Ihre Geschäftsanforderungen und skalieren Sie Ressourcen nach Bedarf.