Was ist Amazon SageMaker?

Illustration mit Kugeln, die an einer wellenförmigen Linie befestigt sind

Autoren

Tom Krantz

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

Alice Gomstyn

Staff Writer

IBM Think

Was ist Amazon SageMaker?

Amazon SageMaker ist ein vollständig verwalteter Service, der den Prozess des Erstellens, Trainierens und Bereitstellens von Modellen für maschinelles Lernen (ML) vereinfachen soll. 

SageMaker wurde von Amazon Web Services (AWS) entwickelt und automatisiert viele der arbeitsintensiven Aufgaben, die in den verschiedenen Phasen der ML-Bereitstellung anfallen. Dadurch reduziert es die Komplexität der Workflows und beschleunigt den gesamten Lebenszyklus des maschinellen Lernens. Das kann zu schnelleren Iterationen, verbesserter Genauigkeit und letztendlich zu einem größeren geschäftlichen Nutzen von Initiativen für maschinelles Lernen führen.

SageMaker bietet eine Suite mit ML-Tools. Mit Autopilot können beispielsweise KI-Modelle auf bestimmten Datensätzen trainiert und Algorithmen nach ihrer Genauigkeit eingestuft werden, während Data Wrangler die Datenaufbereitung beschleunigt und die ersten Phasen der Entwicklung von ML-Modellen effizienter gestaltet.

SageMaker enthält außerdem mehrere Programmierschnittstellen (APIs). Diese APIs ermöglichen es Data Scientist und Entwicklern, produktionsreife ML-Lösungen ohne die Komplexität der Infrastrukturverwaltung zu erstellen.

Hintergrund: Den Prozess des maschinellen Lernens verstehen

Um die Auswirkungen von Amazon SageMaker zu verstehen, ist es wichtig zu wissen, wie maschinelles Lernen funktioniert. Der Prozess des maschinellen Lernens kann in drei Teile unterteilt werden: Entscheidungsprozess, Fehlerfunktion und Modelloptimierung.

  • Entscheidungsprozess: ML-Algorithmen haben in erster Linie das Ziel, Vorhersagen oder Klassifizierungen zu treffen. Anhand von Eingabedaten (ob gekennzeichnet oder nicht gekennzeichnet) können ML-Algorithmen Schätzungen vornehmen und Muster in den Daten erkennen. 

  • Fehlerfunktion: Diese Funktion bewertet die Genauigkeit der Vorhersagen des Modells. Durch den Vergleich der Ausgaben des Modells mit bekannten Beispielen hilft die Fehlerfunktion dabei, die Leistung des Modells zu beurteilen und Bereiche zu identifizieren, in denen Verbesserungen nötig sind.

  • Modelloptimierung: Um die Modellgenauigkeit zu verbessern, passen ML-Algorithmen ihre Gewichtungen basierend auf Abweichungen zwischen bekannten Beispielen und Modellschätzungen iterativ an. Dieser „Bewertungs- und Optimierungszyklus“ wird fortgesetzt, bis das Modell eine zufriedenstellende Genauigkeitsschwelle erreicht.

Amazon SageMaker kann dazu beitragen, diese Prozesse zu optimieren, sodass Data Scientists maschinelles Lernen effizient bereitstellen können. 

Was bietet AWS SageMaker?

AWS SageMaker vereinfacht den ML-Lebenszyklus durch einen strukturierten Ansatz, der drei entscheidende Phasen umfasst: Generierung von Beispieldaten, Training und Bereitstellung.   Innerhalb jeder Phase können Entwickler Instanzen verwenden – isolierte Umgebungen oder Server –, die Datenbank- und Rechenressourcen verwalten, Konfigurationsparameter festlegen und die erforderliche IT-Infrastruktur bereitstellen. 

Generierung von Beispieldaten

Entwickler können damit beginnen, Beispieldaten zu generieren, die für das Training von ML-Modellen unerlässlich sind. Dieser Prozess beinhaltet das Abrufen, Bereinigen und Vorbereiten von realen Datensätzen für die Vorverarbeitung. Manchmal können Entwickler Amazon Ground Truth verwenden, um gekennzeichnete synthetische Bilddaten zu erstellen, die Beispieldaten ergänzen oder ersetzen. Sobald die Daten bereit sind, können sie auf Amazon Simple Storage Service (S3) hochgeladen werden, wodurch sie für die Nutzung mit verschiedenen AWS-Services zugänglich sind.

Amazon SageMaker Notebook-Instanzen bieten Entwicklern eine robuste Umgebung, in der sie ihre Daten für das Training vorbereiten und verarbeiten können. Durch den Zugriff auf die in S3 gespeicherten Daten kann SageMaker den Prozess der Modellentwicklung beschleunigen, indem vollständig verwaltete ML-Instanzen verwendet werden, um Modelle zu trainieren, Inferenzen auszuführen und große Datensätze innerhalb von Amazon Elastic Cloud Compute (EC2) zu verarbeiten. 

SageMaker unterstützt die kollaborative Codierung über die Open-Source-Anwendung Jupyter Notebook. Data Scientists können ihre eigenen Tools importieren oder vorgefertigte Notebook-Instanzen verwenden, die mit wichtigen Treibern und Bibliotheken mit vorgefertigtem Code für beliebte Deep Learning-Frameworks ausgestattet sind. Diese Bibliotheken können aus mathematischen Operationen, Schichten neuronaler Netze und Optimierungsalgorithmen bestehen.

SageMaker bietet Entwicklern außerdem Flexibilität, indem es benutzerdefinierte Algorithmen unterstützt, die als Docker-Container-Images gepackt sind. Es integriert diese mit Amazon S3, sodass Teams ihre ML-Projekte einfach starten können. Entwickler können ihre eigenen Trainingsalgorithmen bereitstellen oder über die SageMaker-Konsole aus einer Reihe vorgefertigter Algorithmen auswählen. Es stehen Tutorials und Ressourcen zur Verfügung, die Benutzer durch diese Prozesse führen.

Training

In der Trainingsphase verwenden Entwickler Algorithmen oder vortrainierte Basismodelle, um ihre ML-Modelle auf bestimmte Datensätze abzustimmen. Entwickler können Datenspeicherorte in Amazon S3-Buckets definieren und geeignete Instanztypen auswählen, um den Trainingsprozess zu optimieren. 

Orchestrierungstools wie SageMaker Pipelines optimieren den Workflow, indem sie den gesamten Prozess der Erstellung, Schulung und Bereitstellung von ML-Modellen automatisieren. Das spart Zeit und trägt zur Genauigkeit der Workflows bei. Außerdem ermöglicht Amazon SageMaker JumpStart Entwicklern die Verwendung vorgefertigter Modelle über eine No-Code-Schnittstelle, was eine Zusammenarbeit ermöglicht, ohne dass tiefes technisches Fachwissen erforderlich ist. 

Während des Modelltrainings können Entwickler das Hyperparameter-Tuning von SageMaker verwenden, um große Sprachmodelle (LLMs) für eine verbesserte Leistung in verschiedenen Anwendungen zu optimieren. Der Debugger überwacht die Metriken neuronaler Netze und bietet Entwicklern Echtzeit-Einblicke in die Modellleistung und Ressourcennutzung. Das kann helfen, den Debugging-Prozess zu vereinfachen, da Data Scientist Probleme schnell identifizieren, Trends analysieren und automatische Benachrichtigungen für ein proaktives Management einrichten können. SageMaker bietet außerdem eine Edge-Manager-Funktion, die ML-Überwachung und -Management auf Edge-Geräte erweitert. 

Bereitstellung

Nach Abschluss des Trainings verwaltet und skaliert SageMaker autonom die zugrunde liegende Cloud-Infrastruktur, um eine reibungslose Bereitstellung zu gewährleisten. Dieser Prozess basiert auf einer Reihe von Instanztypen (z. B. Grafikprozessoren (GPUs), die für ML-Workloads optimiert sind). Außerdem kann er über mehrere Verfügbarkeitszonen hinweg bereitgestellt werden – Cluster von Rechenzentren, die isoliert sind, aber nahe genug beieinander liegen, um eine geringe Latenz zu gewährleisten. Zustandsprüfungen und sichere HTTPS-Endgerät verbessern die Anwendungskonnektivität zusätzlich.

Nach der Bereitstellung können Entwickler Amazon CloudWatch-Metriken verwenden, um die Produktionsleistung zu überwachen, Echtzeit-Erkenntnisse zu gewinnen und Warnmeldungen für Abweichungen einzurichten. Mit umfassenden Überwachungsfunktionen kann SageMaker eine effektive Governance während des gesamten ML-Lebenszyklus unterstützen. Als Ergebnis können Unternehmen die Kontrolle und Compliance aufrechterhalten, während Sie die Leistungsfähigkeit des maschinellen Lernens nutzen.

Was sind die Vorteile von Amazon SageMaker?

Amazon SageMaker bietet eine Reihe von Vorteilen, die die Erfahrung des maschinellen Lernens verbessern, darunter:

  • Integrierte Entwicklungsumgebung 
  • Modelltraining und -optimierung
  • Datenaufbereitung und -kennzeichnung
  • Echtzeit- und Batch-Inferenz
  • Serverlose und kostengünstige Lösungen
  • Überwachung und Debugging
  • Flexible Preismodelle

Integrated Development Environment (IDE)

Amazon SageMaker Studio dient als umfassende IDE für Data Scientists und bietet eine intuitive Oberfläche zur Verwaltung von Workflows, Entwicklung von Modellen und Visualisierung von Metriken. Es unterstützt Jupyter Notebooks, sodass Benutzer Python-Code effizient schreiben und ausführen können.

Modelltraining und -optimierung

Benutzer können ML-Modelle mit integrierten oder benutzerdefinierten Algorithmen trainieren, die auf gängigen ML-Trainings-Frameworks wie TensorFlow, PyTorch und MXNet basieren. Der Service bietet Hyperparameter-Tuning zur Optimierung von Modellkonfigurationen, um eine optimale Leistung zu bieten. SageMaker ermöglicht außerdem die Feinabstimmung vortrainierter Modelle, sodass Data Scientists diese Modelle an bestimmte Datensätze und Aufgaben anpassen können.

Datenaufbereitung und -kennzeichnung

Hochwertige Datensätze sind entscheidend für die Erstellung effektiver ML-Modelle. Ground Truth bietet einen Service zur Datenkennzeichnung, der die Erstellung hochwertiger Trainingsdatensätze durch automatisierte Kennzeichnung und menschliche Überprüfungsprozesse erleichtert. Außerdem umfasst Amazon SageMaker einen integrierten Funktionsspeicher, mit dem Teams Funktionen (Eingaben, die für Training und Inferenz verwendet werden) über verschiedene ML-Modelle hinweg verwalten, teilen und entdecken können. Das kann dazu beitragen, den Datenaufbereitungsprozess zu optimieren und die Zusammenarbeit zu verbessern.

Echtzeit- und Batch-Inferenz

Nach der Bereitstellung von ML-Modellen ermöglicht SageMaker sowohl Echtzeit- als auch Batch-Inferenz. Benutzer können Endpunkte erstellen – spezifische URLs, die als Zugangspunkte für Anwendungen dienen –, um Prognosen in Echtzeit zu treffen und Workloads effizient zu verwalten. Das ist besonders nützlich für Anwendungen, die sofortige Reaktionen erfordern, wie z. B. bei generativen KI-Szenarien.

Serverlose und kostengünstige Lösungen

Mit Funktionen wie Auto-Scaling und Integration mit AWS Lambda bietet SageMaker serverlose Funktionen, die helfen, Rechenressourcen dynamisch und nach Bedarf zu verwalten. Das Ergebnis sind optimierte Kosten und Skalierbarkeit.

Überwachung und Debugging

SageMaker bietet Tools wie Amazon CloudWatch zur Überwachung der Leistung von ML-Modellen in Echtzeit und nutzt andere AWS-Services, um einen ganzheitlichen Überblick über den Anwendungszustand zu erhalten. Debugging-Funktionen ermöglichen es Data Scientists, Probleme beim Modelltraining und bei der Bereitstellung zu erkennen und so einen robusten ML-Lebenszyklus zu gewährleisten.

Flexible Preismodelle

AWS bietet zwei Preismodelle an – On-Demand und Pay As You Go –, wobei die Kosten je nach Instanztyp, Datenspeicher und genutzten Services variieren. Außerdem ermöglicht das kostenlose Kontingent von Amazon SageMaker mit einer begrenzten Anzahl von Funktionen und Ressourcen neuen Benutzern, die Plattform kostenlos zu erkunden. 

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Think Newsletter. 

Anwendungsfälle für AWS SageMaker

Aufgrund seiner Vielseitigkeit eignet sich Amazon SageMaker für verschiedene Anwendungsfälle in verschiedenen Branchen. Einige Beispiele: 

Gesundheitswesen: Modelle für maschinelles Lernen können Patientendaten analysieren, um Ergebnisse vorherzusagen, Behandlungen zu personalisieren und die betriebliche Effizienz zu steigern. 

Finanzwesen: Finanzinstitute können Amazon SageMaker nutzen, um Modelle zur Betrugserkennung, Kreditwürdigkeitsprüfung und Risikobewertung zu entwickeln. 

Einzelhandel: Unternehmen nutzen vorausschauende Analyse, um das Bestandsmanagement zu verbessern, Customer Experiences zu personalisieren und Preisstrategien zu optimieren. 

Amazon SageMaker und KI-Governance

Tools wie Amazon SageMaker können Unternehmen bei der effektiven Bereitstellung von ML-Modellen helfen, die Innovation und Geschäftswert fördern, während sie die Kontrolle des AI-Systems und die Einhaltung gesetzlicher Vorschriften gewährleisten. Benutzer können von verschiedenen Governance-Tools profitieren, darunter:

  • Identity und Access Management (IAM): Diese Funktion ermöglicht es Benutzern, Berechtigungen und Rollen zu verwalten und sicherzustellen, dass nur autorisierte Benutzer auf sensible Daten und Endgeräte zugreifen.

  • Versionskontrolle: Benutzer können Modellversionen und Konfigurationen verfolgen, um einen klaren Prüfpfad zu erhalten, der für Compliance und Governance unerlässlich ist.

  • Modell-Registrierung: Die Modell-Registrierung dient als zentrales Repository für die Verwaltung von Modellartefakten und Metadaten und trägt dazu bei, Transparenz und Verantwortlichkeit während des gesamten Entwicklungszyklus zu gewährleisten.

Das SageMaker-Python-SDK erweitert die Governance-Funktionen von Amazon SageMaker, indem es eine nahtlose Integration in bestehende Workflows und Services ermöglicht. Dadurch können Unternehmen Compliance-Prüfungen automatisieren und ihre ML-Projekte effektiver überwachen.

Amazon SageMaker kann auch in umfassendere Daten- und KI-Strategien integriert werden. IBM und AWS haben strategische Partnerschaften geschlossen, um die Funktionen für Unternehmen zu verbessern, die Cloud-basierte Services nutzen. Die Verwendung der Foundation Models von IBM zusammen mit Amazon SageMaker ermöglicht es Teams, fortschrittliche Analysen zu nutzen, die Datenverwaltung zu verbessern und Workflows zu rationalisieren. Durch den Einsatz von Modellen innerhalb einer Amazon VPC können Unternehmen dazu beitragen, einen sicheren und kontrollierten Zugriff auf ihre Ressourcen zu gewährleisten und so ihre Governance-Bemühungen weiter unterstützen.

Mit der Möglichkeit, auf verschiedenen Plattformen wie etwa Windows zu arbeiten, können Unternehmen IBM- und AWS-Tools koppeln, um KI- und ML-Lösungen, die auf ihre Bedürfnisse zugeschnitten sind, einfach zu implementieren. Durch die Verwendung von watsonx.governance von IBM in Kombination mit den robusten Funktionen von SageMaker können Unternehmen ihre KI-Initiativen beschleunigen, insbesondere in generativen KI- und MLOps-Anwendungen.

Weiterführende Lösungen
Basismodelle

Erkunden Sie die Foundation-Model-Bibliothek im watsonx-Portfolio von IBM zur zuverlässigen Skalierung generativer KI für Ihr Unternehmen.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Erkunden Sie die Foundation-Model-Bibliothek im watsonx-Portfolio von IBM zur zuverlässigen Skalierung generativer KI für Ihr Unternehmen.

watsonx.ai erkunden Erkunden Sie KI-Lösungen