Was ist AutoML?

14. Januar 2025

Autoren

Ivan Belcic

Staff writer

Cole Stryker

Editorial Lead, AI Models

Was ist AutoML?

Automatisiertes maschinelles Lernen (AutoML) ist die Automatisierung der End-to-End-Entwicklung von Modellen für maschinelles Lernen (ML-Modelle). AutoML ermöglicht es Nicht-Experten, Systeme der künstlichen Intelligenz (KI) zu erstellen und zu implementieren und optimiert gleichzeitig KI-Workflows für Data Scientist und Entwickler.

AutoML-Tools vereinfachen den Prozess der Erstellung von ML-Modellen. Benutzer profitieren von einer intuitiven Oberfläche, über die sie generative KI-Modelle und andere Deep-Learning-Systeme erstellen, trainieren, validieren und bereitstellen können. AutoML erleichtert die KI-Implementierung in regulierten Branchen mit seinen erklärbaren und reproduzierbaren Ergebnissen. 

Ohne AutoML muss jeder Schritt im Workflow des maschinellen Lernens (ML) – Datenaufbereitung, Datenvorverarbeitung, Feature Engineering und Hyperparameter-Optimierung – manuell durchgeführt werden. AutoML demokratisiert maschinelles Lernen, indem es es für jeden zugänglich macht, der daran interessiert ist, sein Potenzial zu erkunden. In der Zwischenzeit können erfahrene MLOps-Teams und Data Science-Professionals die Routineaspekte von Workflows des maschinellen Lernens automatisieren und sich gleichzeitig auf anspruchsvollere Lernaufgaben konzentrieren. 

3D-Design aus Kugeln, die auf einer Schiene rollen

Die neuesten Erkenntnisse und Insights zu KI

Entdecken Sie von Experten kuratierte Erkenntnisse und Neuigkeiten zu KI, Cloud und mehr im wöchentlichen Newsletter Think. 

Wie funktioniert AutoML?

AutoML-Lösungen funktionieren, indem sie zahlreiche Pipelines für maschinelles Lernen konstruieren, um die beabsichtigte Aufgabe zu erledigen, und dann die optimale Wahl identifizieren. Die Modellbewertung und Modellauswahl werden als Teil des iterativen Prozesses zur Auswahl des besten Modells für die jeweilige Aufgabe automatisiert. Tools zur Datenvisualisierung machen den AutoML-Prozess noch benutzerfreundlicher. 

Der Unterschied zwischen AutoML und traditionellem maschinellem Lernen besteht darin, dass AutoML fast jede Phase der Pipeline für maschinelles Lernen automatisiert. Herkömmliche Pipelines sind zeitaufwändig, ressourcenintensiv und anfällig für menschliche Fehler. Im Vergleich dazu haben die Fortschritte bei AutoML zu einer höheren Effizienz und besseren Ergebnissen geführt. 

Eine typische Pipeline für maschinelles Lernen besteht aus den folgenden Schritten:  

Datenaufbereitung und Vorverarbeitung 

Unter Datenaufbereitung versteht man den Prozess der Erfassung von Rohdaten und deren Integration in einen Trainingsdatensatz. Die Datenaufbereitung trägt dazu bei, dass die Trainingsdaten frei von Verzerrung sind, und bildet die Grundlage für den Erfolg eines Modells: Genaue Daten führen zu genauen Vorhersagen und Erkenntnissen. Da Unternehmen KI-Systeme mit proprietären Datenspeichern verknüpfen, z. B. durch Retrieval-Augmented Generation (RAG), ist die Datenaufbereitung für eine zuverlässige KI-Implementierung entscheidend. 

Benutzer verbinden die AutoML-Plattform mit der Quelle der Trainingsdaten – idealerweise ein großer Datensatz mit Daten, die für das Training verwendet werden können. Die Datenaufbereitung findet statt, bevor eine AutoML-Lösung bereitgestellt wird. 

Die AutoML-Lösung greift ein, um die Daten weiter vorzuverarbeiten und zu bereinigen. Eine gründlichere Datenvorverarbeitung führt zu einer besseren Leistung des KI-Modells

Beim manuellen Erstellen von Modellen für überwachtes Lernen und halbüberwachte Lernaufgaben müssen die Trainingsdaten manuell gelabelt werden. Funktionen und Ausgaben müssen auf der Grundlage des beabsichtigten Anwendungsfalls des Modells ausgewählt werden. AutoML-Lösungen können das Feature-Engineering für die Benutzer übernehmen, um die Datenfunktionen auszuwählen, die die Modellleistung am wahrscheinlichsten verbessern. 

Funktionsentwicklung

Datenmerkmale oder Variablen sind die Attribute eines Datensatzes, die Modelle für maschinelles Lernen für die Entscheidungsfindung und Vorhersagen verwenden. Bei einem Computer-Vision-Modell, das zur Identifizierung von Pflanzenarten entwickelt wurde, könnten zu den Datenmerkmalen beispielsweise die Blattform und -farbe gehören. 

Feature Engineering  ist der transformative Prozess, bei dem ein Data Scientist neue Informationen aus Input zieht und sie für maschinelles Lernen aufbereitet. Eine gute Technik und Funktionsauswahl können den Unterschied zwischen einer akzeptablen und einer hochwertigen Modellleistung ausmachen.

Automatisiertes Funktions-Engineering automatisiert den Prozess der Erkundung des Funktionsraums, des Ausfüllens fehlender Werte und der Auswahl von Funktionen, die verwendet werden sollen. Die manuelle Erstellung eines einzigen Merkmals kann Stunden dauern, und die Anzahl der Merkmale, die für ein Minimum an Genauigkeit erforderlich sind – ganz zu schweigen von einer Basisgenauigkeit auf Produktionsniveau – kann in die Hunderte gehen. Automatisiertes Funktions-Engineering verkürzt diese Phase von Tagen auf Minuten. 

Zusätzlich zu den Vorteilen erhöht die Effizienz automatisierter Funktionen auch die KI-Erklärbarkeit – wichtig für streng regulierte Branchen wie das Gesundheitswesen oder das Finanzwesen. Eine größere Klarheit der Merkmale macht die Modelle überzeugender und besser umsetzbar, indem neue organisatorische KPIs ermittelt werden.

Modellauswahl, Hyperparameter-Tuning und Modelltraining

Welche Art von Modell eignet sich am besten für den jeweiligen Anwendungsfall? Beim traditionellen maschinellen Lernen erfordert die Modellauswahl Expertenwissen über die KI-Modelle sowie ihre jeweiligen Funktionen und Einschränkungen. 

AutoML-Tools verbessern herkömmliche Prozesse, indem sie automatisch mehrere Modelle gleichzeitig mit einer Reihe von Algorithmen und Hyperparameterkonfigurationen erstellen und trainieren. Viele AutoML-Lösungen kombinieren mehrere Modelle in einem Prozess, der als Ensemble Learning bezeichnet wird. 

Suche nach neuronalen Architekturen (NAS) 

Eine der kompliziertesten, fehleranfälligsten und zeitaufwändigsten Aufgaben beim Aufbau tiefer neuronaler Netze ist die Erstellung der neuronalen Architektur. Fortgeschrittene Aufgaben erfordern mehrschichtige Netzwerke mit komplexen Hyperparameterkonfigurationen. 

Die Suche nach neuronalen Architekturen (NAS) automatisiert diesen Prozess und reduziert so den Zeitaufwand und das Fehlerpotenzial. Mithilfe fortschrittlicher Algorithmen identifiziert NAS die optimale Architektur auf der Grundlage von Kontext und Datensatz. Die jüngsten Fortschritte im Bereich NAS konzentrieren sich auf die Entwicklung effizienterer Techniken, um die damit verbundenen Rechenkosten zu senken. 

Hyperparameter-Optimierung

Hyperparameter sind die Regeln, die den Lernprozess des Modells steuern. Im Gegensatz zu den internen Parametern, die ein Modell während des Trainings aktualisiert, befinden sich Hyperparameter außerhalb des Modells und werden von Data Scientist konfiguriert. Die Struktur eines Neural Networks wird auch durch Hyperparameter definiert. 

Im Kontext der Datenmodellierung im kleinen Maßstab können Hyperparameter manuell konfiguriert und durch Trial and Error optimiert werden. Aber bei Deep-Learning-Anwendungen wächst die Anzahl der Hyperparameter exponentiell. Die automatisierte Hyperparameteroptimierung ermöglicht es Teams, zu iterieren und zu experimentieren, um die besten Hyperparameter für verschiedene Merkmale und Modelle zu ermitteln. 

Die Hyperparameteroptimierung wird durch fortschrittliche Algorithmen wie die Bayes'sche Optimierung automatisiert. Durch die automatisierte Abstimmung von Hyperparametern können sich Data Scientists während des maschinellen Lernens auf das Warum der Modellerstellung konzentrieren anstatt sich mit dem Wie beschäftigen zu müssen. Analyse-Teams können sich darauf konzentrieren, Modelle für bestimmte Anwendungsfälle zu optimieren – zum Beispiel, um falsch negative Ergebnisse bei medizinischen Tests zu minimieren.

Validierung und Prüfung

Data Scientists müssen den Fortschritt eines Algorithmus für maschinelles Lernen während des Trainings validieren. Nach dem Training wird das Modell mit neuen Daten getestet, um seine Leistung vor der Bereitstellung zu bewerten. Die Leistung des Modells wird mit Metriken wie einer Konfusionsmatrix, dem F1-Score, der ROC-Kurve und anderen bewertet. 

Wenn das Training abgeschlossen ist, testet das AutoML-Tool jedes Modell, um herauszufinden, welches bei den Trainings- und Test-Datensätzen am besten abschneidet, und wählt dann automatisch das leistungsstärkste Modell für die Bereitstellung aus.

Modellimplementierung

Die Modellerstellung ist nur der erste Schritt in der Produktzeitachse. Abgeschlossene Modelle müssen den Benutzern zur Verfügung gestellt, auf ihre Leistung überwacht und im Laufe der Zeit gewartet werden, um ihre Zuverlässigkeit und Genauigkeit zu gewährleisten. Ohne Automatisierung müssen die Entwicklungsteams Skripte schreiben und Systeme erstellen, um das Modell in ihren Betrieb zu integrieren und es der Benutzerbasis bereitzustellen. 

Viele AutoML-Lösungen enthalten Bereitstellungstools für eine nahtlose Integration in der realen Welt. Modelle können als Service bereitgestellt werden, auf den über eine Website, eine App oder eine API-Verbindung zugegriffen werden kann.  AutoML-Plattformen können die Bereitstellung von Modellen in bereits vorhandenen Produktangeboten automatisieren, Skalierung, Updates und Versionierung verwalten und die Erklärbarkeit durch Datenvisualisierung erhöhen.

AI Academy

KI-Experte werden

Erlangen Sie das nötige Wissen, um KI-Investitionen zu priorisieren, die das Unternehmenswachstum vorantreiben. Starten Sie noch heute mit unserer kostenlosen AI Academy und gestalten Sie die Zukunft der KI in Ihrem Unternehmen.

Anwendungsfälle für AutoML

Aufgrund der vielfältigen Auswahl an AutoML-Tools kann die Technik auf eine Vielzahl von Aufgaben des maschinellen Lernens angewendet werden, darunter: 

  • Klassifikation 

  • Regression

  • Computer Vision 

  • Verarbeitung natürlicher Sprache 

Klassifikation

Klassifizierung ist die maschinelle Lernaufgabe der Zuordnung von Daten Eingabe in eine bestimmte Kategorie. Vorhersagemodelle verwenden Input-Features, um die richtigen Labels oder Outputs vorherzusagen. AutoML-Systeme können eine Reihe von Algorithmen erstellen und testen, z. B. Random Forests und Support Vector Machines (SVM), um tabellarische Daten zu verarbeiten. 

AutoML-Tools erkennen automatisch Muster in gelabelten Datensätzen und können Modelle für gängige Klassifizierungsaufgaben wie die Betrugserkennung und die Filterung von E-Mail-Spam erstellen. 

Regression

Bei der Regression im maschinellen Lernen handelt es sich um die Herausforderung, anhand historischer Daten zukünftige Werte vorherzusagen. Die Lineare Regression sagt den Wert einer abhängigen Variablen auf der Grundlage einer oder mehrerer unabhängiger Variablen voraus – beispielsweise bei der Risikoanalyse oder Forecasting. Die logistische Regression sagt die Wahrscheinlichkeit eines zukünftigen Ereignisses voraus, beispielsweise die Wahrscheinlichkeit, dass ein Patient an einer Krankheit erkrankt, im Gegensatz zu einem diskreten Wert. 

AutoML rationalisiert den Prozess der Einrichtung von Beziehungen zwischen Eingabevariablen und Zielvariablen, insbesondere bei komplexen multivariaten Aufgaben.

Computervision

Computer Vision ist die Verwendung von Computern zur Verarbeitung visueller Daten, wie Bilder und Videos. AutoML-Systeme können Modelle generieren, die für visuelle Klassifizierungsaufgaben wie Objekterkennung, Bildklassifizierung und intelligente Texterkennung konzipiert sind. Anwendungsfall können die Moderation und Filterung von Inhalten, die Kennzeichnung von Bildern und andere verwandte Aufgaben umfassen. 

AutoML-Systeme können Modelle auch auf den Einsatz in fortgeschritteneren Computer-Vision-Kontexten, wie z. B. bei selbstfahrenden Autos, abstimmen.

Verarbeitung natürlicher Sprache (NLP)

Verarbeitung natürlicher Sprache (NLP) ermöglicht es KI-Systemen, Eingaben wie Prompts und juristische Dokumente zu interpretieren. Chatbot-Erstellung, Textklassifizierung mit mehreren Klassen und mehreren Labels, Analyse der Kundenstimmung, Erkennung benannter Entitäten und Sprachübersetzung sind alles Beispiele für komplexe NLP-Aufgaben, die mit AutoML einfach erledigt werden können. 

Data Scientist können mit AutoML benutzerdefinierte Modelle erstellen, die automatisch für eine hohe Leistung in ihren vorgesehenen Anwendungsfall optimiert werden. Andernfalls müssen Data Scientist bei der manuellen Erstellung von NLP-Modellen entweder bei Null beginnen oder ihre Modelle auf früheren Modellen aufbauen, die möglicherweise nicht so gut funktionieren wie ein maßgeschneidertes, automatisch generiertes Modell.

AutoML-Beschränkungen

Obwohl AutoML viele Vorteile für KI-Entwickler bringt, ist es kein vollständiger Ersatz für menschliches Wissen, Erfahrung, Fähigkeiten und Kreativität. Zu den Einschränkungen von AutoML gehören: 

  • Hohe Kosten: Je anspruchsvoller die Aufgabe, desto fortschrittlicher muss das entsprechende Modell sein. Die Kosten von AutoML können schnell außer Kontrolle geraten, wenn diese Technik zur Erstellung großer, komplexer Modelle eingesetzt wird. 

  • Mangelnde Interpretierbarkeit: Mit AutoML generierte Modelle tappen manchmal in die Falle der „Blackbox-KI“, bei der das Innenleben des Modells unklar ist. Menschliche Entwickler können Modelle erstellen, die nach den Prinzipien erklärbarer KI entworfen wurden, aber das ist bei AutoML-Lösungen nicht garantiert. 

  • Risiko der Überanpassung: Eine Überanpassung – bei der sich ein trainiertes Modell zu eng an seinen Trainingsdaten orientiert und das Gelernte nicht auf reale Daten übertragen kann – kann durch menschliches Eingreifen und eine sorgfältige Überwachung des Lernprozesses gemindert werden. 

  • Eingeschränkte Kontrolle: Entwickler opfern Kontrolle zugunsten der Effizienz durch Automatisierung. In Nischenfällen, in denen hochgradig angepasste Modelle benötigt werden, kann es für AutoML-Lösungen schwierig sein, ein geeignetes Modell bereitzustellen. 

  • Datenabhängigkeit: Ein KI-Modell ist so stark wie seine Trainingsdaten. Sowohl von Menschen erstellte als auch von AutoML erstellte Modelle können nicht gut funktionieren, wenn sie nicht mit hochwertigen Daten versehen werden.

AutoML-Tools

Entwicklern von KI-Modellen steht eine breite Palette an AutoML-Tools zur Verfügung. Dazu zählen: 

  • AutoKeras: Ein Open-Source-Tool, das auf der Keras-Bibliothek und TensorFlow basiert. 

  • Auto-PyTorch: Eine AutoML-Lösung zur Automatisierung von mit PyTorch erstellten Projekten im Bereich maschinelles Lernen. 

  • Google Cloud AutoML: Die AutoML-Lösung von Google ist auf der Cloud-Plattform für maschinelles Lernen verfügbar. 

  • Lale1: Eine halbautomatische Open-Source-Python-Bibliothek, die sich nahtlos in scikit-learn-Pipelines integrieren lässt. 

  • Microsoft Azure AutoML: Entwickler, die Microsoft Azure verwenden, profitieren von seinen AutoML-Funktionen. 

  • Auto-Sklearn: Eine Open-Source-AutoML-Plattform, die auf der scikit-learn-Bibliothek basiert. 

Fußnoten

1. Library for Semi-Automated Data Science, Hirzel et al., IBM, 28. August 2024

 

Weiterführende Lösungen
IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Profitieren Sie von einem einheitlichen Zugriff auf Funktionen, die den gesamten Lebenszyklus der KI-Entwicklung abdecken. Erstellen Sie leistungsstarke KI-Lösungen mit benutzerfreundlichen Oberflächen, Workflows und Zugriff auf branchenübliche APIs und SDKs.

watsonx.ai erkunden Buchen Sie eine Live-Demo