IBM® Spectrum LSF Suites ist eine Workloadmanagementplattform und ein Job-Scheduler für verteiltes Hochleistungscomputing (HPC). Es ist eine auf Terraform basierende Automatisierung zur Bereitstellung und Konfiguration von Ressourcen für einen auf IBM® Spectrum LSF basierenden Cluster auf IBM® Cloud verfügbar.
Steigern Sie die Benutzerproduktivität und die Hardwarenutzung und senken Sie gleichzeitig die Systemmanagementkosten mit unserer integrierten Lösung für geschäftskritische HPC-Umgebungen. Die heterogene, hochgradig skalierbare Architektur mit hoher Verfügbarkeit unterstützt traditionelles Hochleistungscomputing sowie Workloads mit hohem Durchsatz. Sie ist auch für Big Data-, kognitive, GPU-ML- und containerisierte Workloads geeignet.
Mit dynamischer HPC-Cloud-Unterstützung bietet IBM® Spectrum LSF Suites Unternehmen die Möglichkeit zur intelligenten Nutzung von Cloudressourcen basierend auf der Workload-Nachfrage, mit Unterstützung für alle gängigen Cloud-Provider.
Nutzen Sie ein erweitertes Workloadmanagement mit richtlinienbasierter Planung, darunter GPU-Planung und dynamische Hybrid Cloud, um die Kapazität bei Bedarf zu erweitern.
Profitieren Sie von besseren Ergebnissen mit erweiterten Benutzeroberflächen in Kombination mit Richtlinien und Automatisierung.So müssen Benutzer nicht zu Cluster-Experten werden und können sich weiterhin auf die Ergebnisse konzentrieren.
Profitieren Sie von einem Cluster mit vollem Funktionsumfang, der in der Regel in weniger als einer Stunde einsatzbereit ist.Nutzen Sie eine einfache, zentrale Verwaltung großer verteilter Systeme.
Verbessern Sie die Benutzerproduktivität mit weiteren Möglichkeiten für den Zugriff auf HPC-Ressourcen, darunter mobile Clients für die Job-Überwachung und Benachrichtigungen sowie einen integrierten Desktop-Client für Windows-Umgebungen. Ermöglichen Sie die Einbindung von clientspezifischen Anpassungen und Erweiterung bei Sites.
Unterstützung für eine Hybrid-HPC-Cloud ermöglicht die Weiterleitung von Workloads an mehrere Clouds sowie das automatische Staging von Daten in der oder aus der Cloud. In der Cloud genutzte Ressourcen können je nach Workload-Anforderungen und Planungsrichtlinien automatische skaliert werden.
Der optimierte Installationsprozess ermöglicht ein rasches Deployment von einem einzigen Server aus in einer bestehenden Umgebung. Auch Funktionen für eine Installation ohne Vorinstallation sind enthalten. In drei Versionen mit progressiv schlagkräftigerer Funktionalität verfügbar.
Erweiterte Funktionen steigern sowohl die Benutzerproduktivität als auch die Hardwareauslastung und senken gleichzeitig die Systemmanagementkosten.
Nutzen Sie die automatische Erkennung und Konfiguration von NVIDIA GPUs, um die Administration von GPU-Servern zu vereinfachen. Profitieren Sie zudem von der Verhaltensüberwachung, den Allgemeinzustands- und Diagnosefunktionen sowie dem Accounting und den Prozessstatistiken der NVIDIA GPUs.
Unterstützung für Containertechnologien wie Docker, Shifter und Singularity. Optimierung von Entwicklung, Testen und Veröffentlichung von Anwendungen. Konsistentes Deployment eines Anwendungsstacks on-premises und in der Cloud.
Mit einer integrierten Plattform Daten analysieren, schützen und darauf zugreifen.
Profitieren Sie von hochgradig skalierbarem Workloadmanagement mit hohem Durchsatz und geringer Latenz.
Verwalten Sie Daten im großen Maßstab mit der Fähigkeit, Archivierung und Analysen vor Ort durchzuführen.