Was ist Modellbereitstellung?

Autoren

Rina Diane Caballar

Staff Writer

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

Was ist Modellbereitstellung?

Bei der Modellbereitstellung wird ein Modell für maschinelles Lernen (ML) in eine Produktionsumgebung integriert. Wenn ein Modell von der Entwicklung in die Produktion überführt wird, steht es Endbenutzern, Softwareentwicklern und anderen Softwareanwendungen und Systemen für künstliche Intelligenz (KI) zur Verfügung.

Die Bereitstellung von Modellen für maschinelles Lernen ist eine entscheidende Phase im KI-Lebenszyklus. Data Scientists, KI-Entwickler und KI-Forscher arbeiten in der Regel an den ersten Phasen von Data-Science- und ML-Projekten, einschließlich Datenerfassung und -vorbereitung, Modellentwicklung, Modelltraining und Modellevaluierung. Die Bereitstellung von Modellen ist der nächste Schritt, um die Forschung in die reale Welt zu bringen. Nach der Bereitstellung wird ein KI-Modell wirklich getestet – nicht nur in Bezug auf Inferenz oder Echtzeitleistung bei neuen Daten, sondern auch darauf, wie gut es die Probleme löst, für die es entwickelt wurde.

Laut einer Umfrage von Gartner ist generative KI die am häufigsten bereitgestellte KI-Lösung in Unternehmen, aber nur die Hälfte (rund 48 %) der KI-Projekte schafft es in die Produktion.1 Erst wenn ein Modell für maschinelles Lernen bereitgestellt wird, kann sein wahrer Wert zum Vorschein kommen. Benutzer können mit einem Modell interagieren und von seinen Erkenntnissen profitieren, während Unternehmen die Analysen und Prognosen eines Modells für die Entscheidungsfindung nutzen und die Effizienz durch Automatisierung steigern und von seinem Nutzen profitieren können.

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Methoden zur Modellbereitstellung

Unternehmen können je nach Anwendungen und Anwendungsfällen, die sie für ihre neuen Modelle vorstellen, zwischen verschiedenen Bereitstellungsansätzen wählen. Hier sind einige gängige Methoden zur Modellbereitstellung:

  • Echtzeit
  • Batch
  • Streaming
  • Edge

Echtzeit

Bei der Bereitstellung in Echtzeit wird ein vortrainiertes Modell in eine Produktionsumgebung integriert, die Dateneingaben und -ausgaben sofort verarbeiten kann. Dank dieser Methode können Online-ML-Modelle kontinuierlich aktualisiert werden und schnell Vorhersagen generieren, wenn neue Daten eingehen.

Sofortige Vorhersagen können zu einem besseren Erfahrung und einer erhöhten Benutzerinteraktion führen. Aber die Bereitstellung in Echtzeit erfordert auch eine Infrastruktur mit hoher Leistung und schnellen Antwortzeiten und Caching zur Verwaltung synchroner Anfragenmit geringer Latenz.

Echtzeit-Bereitstellung kann für KI-Anwendungen wie Empfehlungs-Engines schnell Vorschläge servierend oder Chatbots Live-Unterstützung für Kunden bietend implementiert werden.

Batch

Die Batch-Bereitstellung beinhaltet die Offline-Verarbeitung von Eingaben. Datensätze werden in Batches gruppiert und dann periodisch auf maschinelles Lernen angewendet. Daher benötigt die Batch-Bereitstellung keine so robuste Infrastruktur wie die Echtzeit-Bereitstellung.

Diese Methode eignet sich für große Datenmengen, die asynchron verarbeitet werden können, wie z. B. Finanztransaktionen, Krankenakten oder juristische Dokumente. Zu den Anwendungsfällen für die Batch-Bereitstellung gehören Dokumentenanalyse, Forecasting, Erstellung von Produktbeschreibungen, Bild Klassifizierung und Stimmungsanalyse.

Streaming

Die Streaming-Bereitstellung speist regelmäßige Datenströme in ein maschinelles Lernsystem für kontinuierliche Berechnungen und Vorhersagen nahezu in Echtzeit ein. Sie erfordert im Allgemeinen die gleiche Infrastruktur wie die Bereitstellung.

Diese Methode kann zur Betrugserkennung und für Anwendungen des Internets der Dinge (IoT) eingesetzt werden, wie z. B. die Überwachung von Kraftwerken und das Verkehrsmanagement, die auf Sensordatenströmen beruhen.

Edge

Edge-Deployment bezieht sich auf die Bereitstellung von KI-Modellen auf Edge-Geräten wie Smartphones und Wearables. Diese Methode kann für Edge-KI-Anwendungen verwendet werden, einschließlich Gesundheitsüberwachung, personalisierte mobile Erlebnisse, vorausschauende Wartung und vorausschauendes Routing auf autonomen Fahrzeugen.

AI Academy

KI-Experte werden

Erlangen Sie das nötige Wissen, um KI-Investitionen zu priorisieren, die das Unternehmenswachstum vorantreiben. Starten Sie noch heute mit unserer kostenlosen AI Academy und gestalten Sie die Zukunft der KI in Ihrem Unternehmen.

Modellbereitstellung und MLOps

Machine Learning Operations (MLOps) umfasst eine Reihe von Verfahren, die darauf abzielen, eine Produktionslinie zum Bereitstellen, Überwachen, Verwalten und Verbessern von Modellen für maschinelles Lernen in Produktionsumgebungen zu schaffen. MLOps baut auf den Prinzipien von DevOps auf – die sich auf die Rationalisierung der Entwicklung, das Testen und die Bereitstellung traditioneller Software-Anwendungen konzentrieren – und wendet sie auf den Lebenszyklus des maschinellen Lernens an.

Die Modellbereitstellung ist nur eine Komponente der MLOps-Pipeline. Einige Schritte im Modellbereitstellungsprozess überschneiden sich jedoch mit denen in MLOps.

So funktioniert die Modellbereitstellung

Die Modellbereitstellung kann je nach den IT-Systemen eines Unternehmens und den bereits vorhandenen DevOps- oder MLOps-Verfahren variieren. Aber der Prozess umfasst in der Regel diese Reihe von Schritten:

  1. Planung
  2. Einrichtung
  3. Verpacken und Bereitstellung
  4. Testen
  5. Überwachung
  6. Kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD)

Planung

Bevor die Bereitstellung überhaupt beginnt, müssen sich Unternehmen auf den Prozess vorbereiten. So können Unternehmen während der Planungsphase die technische Bereitschaft erreichen:

  • Vergewissern Sie sich, dass sich das ML-Modell in einem produktionsbereiten Zustand befindet.
  • Erstellen Sie eine Modellregistrierung, um Modellversionen zu speichern, zu verfolgen und zu verwalten.
  • Wählen Sie eine Bereitstellungsmethode aus.
  • Wählen Sie die Art der Bereitstellung, ob es sich um eine lokale Umgebung, über Cloud Computing oder auf Edge-Geräten handelt.
  • Prüfen Sie die Verfügbarkeit und die ausreichende Leistungsfähigkeit der Rechenressourcen wie CPUs, GPUs, Arbeitsspeicher und Speicherkapazität.

Dies ist auch die Zeit, um einen Zeitplan für die Bereitstellung zu entwickeln, die Rollen und Verantwortlichkeiten der Beteiligten zu definieren und klare Richtlinien und standardisierte Workflows für den Modellbereitstellungsprozess zu erstellen.

Einrichtung

Wie die Planung ist auch die Einrichtung eine mehrstufige Phase. Folgendes passiert normalerweise in dieser Phase:

  • Alle erforderlichen Abhängigkeiten wie Frameworks und Bibliotheken werden installiert.
  • Die Einstellungen der Produktionsumgebung werden so konfiguriert, dass die Modellleistung optimiert wird.
  • Sicherheitsmaßnahmen wie Zugriffskontrolle, Authentifizierung und Verschlüsselung werden eingerichtet, um Daten und Modelle zu schützen.
  • Aktuelle Backup- und Notfallwiederherstellungs-Strategien wurden geändert, um ML-Modelle und die dazugehörige Daten und Infrastruktur einzubeziehen.

Die Dokumentation aller Einrichtungsvorgänge und Konfigurationseinstellungen ist für die Fehlerbehebung und Behebung von Problemen in der Zukunft unerlässlich.

Verpackung und Bereitstellung

Das Modell und seine Abhängigkeiten sind in einen Container gepackt (eine Technik, die als Containerisierung bezeichnet wird), um die Konsistenz unabhängig von der gewählten Bereitstellungsmethode und Umgebung aufrechtzuerhalten. Das gepackte Modell wird dann in die Produktionsumgebung geladen.

Testen

Gründliche Tests sind entscheidend, um zu validieren, dass das bereitgestellte Modell wie beabsichtigt funktioniert und Edge-Cases und fehlerhafte Instanzen bewältigen kann. Das Testen umfasst die Überprüfung der Vorhersagen des Modells gegen die erwarteten Ausgaben anhand eines Datensatzes und die Sicherstellung, dass die Leistung mit den wichtigsten Metriken und Benchmarks übereinstimmt.

Integration-Tests sind eine weitere notwendige Komponente der Suite. Diese Tests überprüfen, ob sich das Modell nahtlos in die Produktionsumgebung einfügt und reibungslos mit anderen Systemen interagiert. Zusätzlich werden Stresstests durchgeführt, um zu beobachten, wie das Modell hohe Workloads bewältigt.

Wie bei der Einrichtungsphase ist es wichtig, zu dokumentieren, welche Tests durchgeführt wurden und welche Ergebnisse sie erzielt haben. So können Verbesserungen ermittelt werden, die vor der Auslieferung oder Freigabe des Modells an die Benutzer vorgenommen werden können.

Überwachung

Die Verfolgung der Modellleistung, insbesondere der Modelldrift, ist die entscheidende Aufgabe der Modellüberwachung. Erkenntnisse aus der kontinuierlichen Überwachung fließen in das iterative Modelltraining ein, bei dem die Modelle mit verbesserten Algorithmen oder neuen Trainingsdaten aktualisiert werden, die aktuellere und relevantere Proben enthalten, um ihre Leistung zu verfeinern.

Wichtige Metriken wie Fehlerraten, Latenz, Ressourcennutzung und Durchsatz müssen ebenfalls mit Überwachungstools protokolliert werden. Die Modellüberwachung erfolgt unmittelbar nach der Bereitstellung, fällt aber in der Regel langfristig in den Zuständigkeitsbereich von MLOps.

Kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD)

Die kombinierten Praktiken der kontinuierlichen Integration und kontinuierlichen Bereitstellung (bekannt als CI/CD) können die Bereitstellung und das Testen von ML-Modellen automatisieren und rationalisieren. Die Implementierung von CI/CD-Pipelines hilft sicherzustellen, dass Modellaktualisierungen und -verbesserungen einfach und schnell angewendet werden können, was zu einer effizienteren Bereitstellung und beschleunigten Lieferzyklen führt.

Modellieren Sie Bereitstellungsplattformen und Tools

Es steht eine Vielzahl von Plattformen und Tools zur Verfügung, die Unternehmen dabei helfen, die Workflows für die Modellbereitstellung zu beschleunigen. Vor der Einführung dieser Technologien müssen Unternehmen die Kompatibilität mit ihrem bestehenden Technologie-Stack und IT-Ökosystem bewerten.

Versionssteuerung

Versionskontrollsysteme und Modellregister erfassen Modellversionen und die zugehörigen Datenquellen und Metadaten. Sie haben die Wahl zwischen Data Version Control (DVC), Git, GitLab und Gewichte & Verzerrungen.

Verpackung

Docker ist eine weit verbreitete Open-Source-Plattform für die Containerisierung. Es ist kompatibel mit Cloud-Service-Anbietern wie Amazon Web Services (AWS), Google Cloud, IBM Cloud® und Microsoft Azure. Zu den Alternativen gehören die Buildah-Befehlszeilenschnittstelle (CLI), Podman und Rancher Desktop.

Orchestrierung

Kubernetes ist eine bekannte Open-Source-Container-Orchestrierungsplattform für die Planung und Automatisierung der Bereitstellung containerisierter Anwendungen. Kubernetes und Docker werden in der Regel zusammen verwendet. Zu den ähnlichen Orchestrierungstools gehören Red Hat OpenShift, Amazon Elastic Container Service (ECS) und verwaltete Kubernetes-Lösungen wie Azure Kubernetes Service (AKS) und IBM Cloud Kubernetes Service.

Bereitstellung

Es gibt mehrere Plattformen für den Einsatz von Modellen. BenToML ist zum Beispiel eine Python-basierte Plattform für die Bereitstellung von ML-Modellen als API-Endpunkte (Application Programming Interface) und sogar Large Language Models (LLMs) als API-Endpunkte. Kubeflow erleichtert die Modellbereitstellung auf Kubernetes, während TensorFlow Serving ein Open-Source-Servierungssystem für TensorFlow-Modelle ist.

Inzwischen helfen andere Plattformen nicht nur bei der Modellbereitstellung, sondern verwalten auch Workflows für maschinelles Lernen. Dazu gehören Amazon SageMaker, Azure maschinelles Lernen, Google Vertex KI Plattform, IBM Watson Studio und MLflow.

CI/CD

CI/CD-Tools automatisieren die Bereitstellung und das Testen von Modellen. Zu den gängigen Tools gehören Continuous Machine Learning (CML), GitHub Actions, GitLab CI/CD und Jenkins.

Herausforderungen bei der Modellbereitstellung

Das Bereitstellen von Deep Learning -Modellen beinhaltet viele bewegliche Teile, was es zu einem komplizierten Unterfangen machen kann. Hier sind einige Herausforderungen im Zusammenhang mit der Modellbereitstellung:

  • Kosten
  • Komplexität
  • Integration
  • Skalierbarkeit

Kosten

Die Modellbereitstellung kann teuer sein, da die Infrastruktur- und Wartungskosten den größten Teil des Budgets verschlingen. Unternehmen müssen bereit sein, in eine robuste Infrastruktur und Ressourcen für eine effiziente Bereitstellung zu investieren.

Komplexität

Die Automatisierung der Modellbereitstellung kann dazu beitragen, die Komplexität zu verringern, aber die Teams müssen dennoch die Grundlagen des maschinellen Lernens verstehen und mit den neuen Technologien für die Bereitstellung vertraut sein. Um diese Lücke zu schließen, sind Schulungen und Weiterbildungen erforderlich. 

Integration

Die Integration von KI-Modellen in aktuelle IT-Systeme kann eine Herausforderung sein. Durch eine detaillierte Bewertung können Unternehmen feststellen, ob APIs, Middleware oder Upgrades für die nahtlose Verbindung und Kommunikation zwischen Modellen und anderen Systemen benötigt werden.

Skalierbarkeit

Die Skalierung von Modellen je nach Bedarf ohne Leistungsverlust kann schwierig sein. Die Implementierung von Auto-Scaling- und Lastausgleichs-Mechanismen kann dazu beitragen, mehrere Anfragen und unterschiedliche Workloads zu unterstützen.

Weiterführende Lösungen
IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Profitieren Sie von einem einheitlichen Zugriff auf Funktionen, die den gesamten Lebenszyklus der KI-Entwicklung abdecken. Erstellen Sie leistungsstarke KI-Lösungen mit benutzerfreundlichen Oberflächen, Workflows und Zugriff auf branchenübliche APIs und SDKs.

watsonx.ai erkunden Buchen Sie eine Live-Demo