Startseite
Kundenreferenzen
IBM Big KI-Modelle – Turbonomic
Die künstliche Intelligenz hat einen entscheidenden Meilenstein erreicht und das Training großer Sprachmodelle (LLMs) ist eine der rechenintensivsten Aufgaben. Hochleistungsrechner sind für die generative KI (gen KI) und die LLM-Workload-Optimierung unerlässlich, und Grafikprozessoren (GPUs) sind mitunter teuer und knapp. GPUs sind spezialisierte Computerchips, die für komplexe mathematische Berechnungen und parallele Verarbeitung entwickelt wurden. Sie eignen sich daher ideal für komplexe Berechnungen, die für das Training und die Inferenz von Deep-Learning-Modellen erforderlich sind. Daher sind GPUs sehr gefragt, und die Optimierung ihrer Auslastung ist entscheidend für den Erfolg der KI.
Das Team von IBM Big AI Models (BAM), das die primäre Forschungs- und Entwicklungsumgebung für die Entwicklungsteams beim Testen und Verfeinern ihrer generativen KI-Projekte unterstützt, sah eine Chance für Verbesserungen. Als immer mehr Projekte die Testphase durchliefen, erkannte das Team, wie wichtig es ist, jede Instanz optimal zu nutzen, um die Verschwendung von Ressourcen zu vermeiden.
Um ihre GPU-Ressourcen zu optimieren und ihre LLM-Kubernetes-Instanzen zu verwalten, setzte das IBM BAM-Team IBM Turbonomic ein, ein fortschrittliches Softwaretool für das Application Resource Management. Anhand von Echtzeitdaten generierte Turbonomic KI-gestützte Empfehlungen für automatisierte Maßnahmen zur Optimierung der Ressourcenauslastung und -effizienz. Durch die Identifizierung optimaler Strategien für die Ressourcenzuweisung generierte die Lösung maßgeschneiderte Vorschläge, die das Team so konfigurieren konnte, dass sie automatisch ausgeführt wurden, was eine KI-gestützte Ressourcenoptimierung ermöglichte.
IBM Turnomic ist speziell auf die Optimierung des Hybrid-Cloud-Managements, einschließlich containerisierter Anwendungen, virtuellen Maschinen und öffentlichen Clouds, zugeschnitten und ermöglicht eine nahtlose Integration in die vorhandene Infrastruktur.
Tom Morris, AI Platform Researcher, fasst zusammen: „Durch den Einsatz von Turbonomic für die Auf- und Abwärtsskalierung unserer LLM-Inferenzserver muss ich weniger Zeit für die Leistungsüberwachung aufwenden.“
VORHER
NACHHER
Mit Turbonomic konnte das IBM BAM-Team eine skalierbare und agile Infrastruktur aufbauen, die sich an die sich entwickelnden Anforderungen ihres Unternehmens anpassen, ihre LLM-Dienste unterstützen und über 100 NVIDIA A100-GPUs laufen lassen konnte.
Durch die Skalierung überversorgter Instanzen nach unten ist das Team in der Lage, die ungenutzten GPU-Ressourcen von 3 auf 16 (5,3 Mal) zu erhöhen, sodass diese Ressourcen zusätzliche Workload bewältigen können.
Zu den Ergebnissen gehörten:
Durch den Einsatz der Automatisierungsfunktionen von Turbonomic konnte das IBM BAM-Team die LLM-Services erfolgreich skalieren und optimieren. Diese Verbesserung ermöglichte es dem Team, seine Zeit für strategische Projekte neu einzuteilen.
Das Big AI Models (BAM)-Team von IBM ist eine Gruppe von Forschern und Ingenieuren innerhalb von IBM® Research, die sich auf die Entwicklung und Anwendung groß angelegter KI-Modelle konzentriert. Diese Modelle sind darauf ausgelegt, riesige Datenmengen zu verarbeiten und zu analysieren und Anwendungen wie die Verarbeitung natürlicher Sprache, Computer Vision und vorausschauende Analyse zu ermöglichen.
© Copyright IBM Corporation 2024. IBM, das IBM Logo, Turbonomic und IBM Research sind Marken oder eingetragene Marken der IBM Corp. in den USA und/oder anderen Ländern. Das vorliegende Dokument ist ab dem Datum der Erstveröffentlichung aktuell und kann jederzeit von IBM geändert werden. Nicht alle Angebote sind in allen Ländern verfügbar, in denen IBM tätig ist.
Alle angeführten Beispiele illustrieren lediglich, wie einige Kunden IBM Produkte verwendet haben und welche Ergebnisse sie dabei erzielt haben. Tatsächliche Leistung, Kosten, Einsparungen oder andere Ergebnisse in anderen Betriebsumgebungen können abweichen.