Automatisiertes maschinelles Lernen (AutoML) ist die Automatisierung der End-to-End-Entwicklung von Modellen für maschinelles Lernen (ML-Modelle). AutoML ermöglicht es Nicht-Experten, Systeme der künstlichen Intelligenz (KI) zu erstellen und zu implementieren und optimiert gleichzeitig KI-Workflows für Data Scientist und Entwickler.
AutoML-Tools vereinfachen den Prozess der Erstellung von ML-Modellen. Benutzer profitieren von einer intuitiven Oberfläche, über die sie generative KI-Modelle und andere Deep-Learning-Systeme erstellen, trainieren, validieren und bereitstellen können. AutoML erleichtert die KI-Implementierung in regulierten Branchen mit seinen erklärbaren und reproduzierbaren Ergebnissen.
Ohne AutoML muss jeder Schritt im Workflow des maschinellen Lernens (ML) – Datenaufbereitung, Datenvorverarbeitung, Feature Engineering und Hyperparameter-Optimierung – manuell durchgeführt werden. AutoML demokratisiert maschinelles Lernen, indem es es für jeden zugänglich macht, der daran interessiert ist, sein Potenzial zu erkunden. In der Zwischenzeit können erfahrene MLOps-Teams und Data Science-Professionals die Routineaspekte von Workflows des maschinellen Lernens automatisieren und sich gleichzeitig auf anspruchsvollere Lernaufgaben konzentrieren.
AutoML-Lösungen funktionieren, indem sie zahlreiche Pipelines für maschinelles Lernen konstruieren, um die beabsichtigte Aufgabe zu erledigen, und dann die optimale Wahl identifizieren. Die Modellbewertung und Modellauswahl werden als Teil des iterativen Prozesses zur Auswahl des besten Modells für die jeweilige Aufgabe automatisiert. Tools zur Datenvisualisierung machen den AutoML-Prozess noch benutzerfreundlicher.
Der Unterschied zwischen AutoML und traditionellem maschinellem Lernen besteht darin, dass AutoML fast jede Phase der Pipeline für maschinelles Lernen automatisiert. Herkömmliche Pipelines sind zeitaufwändig, ressourcenintensiv und anfällig für menschliche Fehler. Im Vergleich dazu haben die Fortschritte bei AutoML zu einer höheren Effizienz und besseren Ergebnissen geführt.
Eine typische Pipeline für maschinelles Lernen besteht aus den folgenden Schritten:
Unter Datenaufbereitung versteht man den Prozess der Erfassung von Rohdaten und deren Integration in einen Trainingsdatensatz. Die Datenaufbereitung trägt dazu bei, dass die Trainingsdaten frei von Verzerrung sind, und bildet die Grundlage für den Erfolg eines Modells: Genaue Daten führen zu genauen Vorhersagen und Erkenntnissen. Da Unternehmen KI-Systeme mit proprietären Datenspeichern verknüpfen, z. B. durch Retrieval-Augmented Generation (RAG), ist die Datenaufbereitung für eine zuverlässige KI-Implementierung entscheidend.
Benutzer verbinden die AutoML-Plattform mit der Quelle der Trainingsdaten – idealerweise ein großer Datensatz mit Daten, die für das Training verwendet werden können. Die Datenaufbereitung findet statt, bevor eine AutoML-Lösung bereitgestellt wird.
Die AutoML-Lösung greift ein, um die Daten weiter vorzuverarbeiten und zu bereinigen. Eine gründlichere Datenvorverarbeitung führt zu einer besseren Leistung des KI-Modells.
Beim manuellen Erstellen von Modellen für überwachtes Lernen und halbüberwachte Lernaufgaben müssen die Trainingsdaten manuell gelabelt werden. Funktionen und Ausgaben müssen auf der Grundlage des beabsichtigten Anwendungsfalls des Modells ausgewählt werden. AutoML-Lösungen können das Feature-Engineering für die Benutzer übernehmen, um die Datenfunktionen auszuwählen, die die Modellleistung am wahrscheinlichsten verbessern.
Datenmerkmale oder Variablen sind die Attribute eines Datensatzes, die Modelle für maschinelles Lernen für die Entscheidungsfindung und Vorhersagen verwenden. Bei einem Computer-Vision-Modell, das zur Identifizierung von Pflanzenarten entwickelt wurde, könnten zu den Datenmerkmalen beispielsweise die Blattform und -farbe gehören.
Feature Engineering ist der transformative Prozess, bei dem ein Data Scientist neue Informationen aus Input zieht und sie für maschinelles Lernen aufbereitet. Eine gute Technik und Funktionsauswahl können den Unterschied zwischen einer akzeptablen und einer hochwertigen Modellleistung ausmachen.
Automatisiertes Funktions-Engineering automatisiert den Prozess der Erkundung des Funktionsraums, des Ausfüllens fehlender Werte und der Auswahl von Funktionen, die verwendet werden sollen. Die manuelle Erstellung eines einzigen Merkmals kann Stunden dauern, und die Anzahl der Merkmale, die für ein Minimum an Genauigkeit erforderlich sind – ganz zu schweigen von einer Basisgenauigkeit auf Produktionsniveau – kann in die Hunderte gehen. Automatisiertes Funktions-Engineering verkürzt diese Phase von Tagen auf Minuten.
Zusätzlich zu den Vorteilen erhöht die Effizienz automatisierter Funktionen auch die KI-Erklärbarkeit – wichtig für streng regulierte Branchen wie das Gesundheitswesen oder das Finanzwesen. Eine größere Klarheit der Merkmale macht die Modelle überzeugender und besser umsetzbar, indem neue organisatorische KPIs ermittelt werden.
Welche Art von Modell eignet sich am besten für den jeweiligen Anwendungsfall? Beim traditionellen maschinellen Lernen erfordert die Modellauswahl Expertenwissen über die KI-Modelle sowie ihre jeweiligen Funktionen und Einschränkungen.
AutoML-Tools verbessern herkömmliche Prozesse, indem sie automatisch mehrere Modelle gleichzeitig mit einer Reihe von Algorithmen und Hyperparameterkonfigurationen erstellen und trainieren. Viele AutoML-Lösungen kombinieren mehrere Modelle in einem Prozess, der als Ensemble Learning bezeichnet wird.
Eine der kompliziertesten, fehleranfälligsten und zeitaufwändigsten Aufgaben beim Aufbau tiefer neuronaler Netze ist die Erstellung der neuronalen Architektur. Fortgeschrittene Aufgaben erfordern mehrschichtige Netzwerke mit komplexen Hyperparameterkonfigurationen.
Die Suche nach neuronalen Architekturen (NAS) automatisiert diesen Prozess und reduziert so den Zeitaufwand und das Fehlerpotenzial. Mithilfe fortschrittlicher Algorithmen identifiziert NAS die optimale Architektur auf der Grundlage von Kontext und Datensatz. Die jüngsten Fortschritte im Bereich NAS konzentrieren sich auf die Entwicklung effizienterer Techniken, um die damit verbundenen Rechenkosten zu senken.
Hyperparameter sind die Regeln, die den Lernprozess des Modells steuern. Im Gegensatz zu den internen Parametern, die ein Modell während des Trainings aktualisiert, befinden sich Hyperparameter außerhalb des Modells und werden von Data Scientist konfiguriert. Die Struktur eines Neural Networks wird auch durch Hyperparameter definiert.
Im Kontext der Datenmodellierung im kleinen Maßstab können Hyperparameter manuell konfiguriert und durch Trial and Error optimiert werden. Aber bei Deep-Learning-Anwendungen wächst die Anzahl der Hyperparameter exponentiell. Die automatisierte Hyperparameteroptimierung ermöglicht es Teams, zu iterieren und zu experimentieren, um die besten Hyperparameter für verschiedene Merkmale und Modelle zu ermitteln.
Die Hyperparameteroptimierung wird durch fortschrittliche Algorithmen wie die Bayes'sche Optimierung automatisiert. Durch die automatisierte Abstimmung von Hyperparametern können sich Data Scientists während des maschinellen Lernens auf das Warum der Modellerstellung konzentrieren anstatt sich mit dem Wie beschäftigen zu müssen. Analyse-Teams können sich darauf konzentrieren, Modelle für bestimmte Anwendungsfälle zu optimieren – zum Beispiel, um falsch negative Ergebnisse bei medizinischen Tests zu minimieren.
Data Scientists müssen den Fortschritt eines Algorithmus für maschinelles Lernen während des Trainings validieren. Nach dem Training wird das Modell mit neuen Daten getestet, um seine Leistung vor der Bereitstellung zu bewerten. Die Leistung des Modells wird mit Metriken wie einer Konfusionsmatrix, dem F1-Score, der ROC-Kurve und anderen bewertet.
Wenn das Training abgeschlossen ist, testet das AutoML-Tool jedes Modell, um herauszufinden, welches bei den Trainings- und Test-Datensätzen am besten abschneidet, und wählt dann automatisch das leistungsstärkste Modell für die Bereitstellung aus.
Die Modellerstellung ist nur der erste Schritt in der Produktzeitachse. Abgeschlossene Modelle müssen den Benutzern zur Verfügung gestellt, auf ihre Leistung überwacht und im Laufe der Zeit gewartet werden, um ihre Zuverlässigkeit und Genauigkeit zu gewährleisten. Ohne Automatisierung müssen die Entwicklungsteams Skripte schreiben und Systeme erstellen, um das Modell in ihren Betrieb zu integrieren und es der Benutzerbasis bereitzustellen.
Viele AutoML-Lösungen enthalten Bereitstellungstools für eine nahtlose Integration in der realen Welt. Modelle können als Service bereitgestellt werden, auf den über eine Website, eine App oder eine API-Verbindung zugegriffen werden kann. AutoML-Plattformen können die Bereitstellung von Modellen in bereits vorhandenen Produktangeboten automatisieren, Skalierung, Updates und Versionierung verwalten und die Erklärbarkeit durch Datenvisualisierung erhöhen.
Aufgrund der vielfältigen Auswahl an AutoML-Tools kann die Technik auf eine Vielzahl von Aufgaben des maschinellen Lernens angewendet werden, darunter:
Klassifikation
Regression
Computer Vision
Verarbeitung natürlicher Sprache
Klassifizierung ist die maschinelle Lernaufgabe der Zuordnung von Daten Eingabe in eine bestimmte Kategorie. Vorhersagemodelle verwenden Input-Features, um die richtigen Labels oder Outputs vorherzusagen. AutoML-Systeme können eine Reihe von Algorithmen erstellen und testen, z. B. Random Forests und Support Vector Machines (SVM), um tabellarische Daten zu verarbeiten.
AutoML-Tools erkennen automatisch Muster in gelabelten Datensätzen und können Modelle für gängige Klassifizierungsaufgaben wie die Betrugserkennung und die Filterung von E-Mail-Spam erstellen.
Bei der Regression im maschinellen Lernen handelt es sich um die Herausforderung, anhand historischer Daten zukünftige Werte vorherzusagen. Die Lineare Regression sagt den Wert einer abhängigen Variablen auf der Grundlage einer oder mehrerer unabhängiger Variablen voraus – beispielsweise bei der Risikoanalyse oder Forecasting. Die logistische Regression sagt die Wahrscheinlichkeit eines zukünftigen Ereignisses voraus, beispielsweise die Wahrscheinlichkeit, dass ein Patient an einer Krankheit erkrankt, im Gegensatz zu einem diskreten Wert.
AutoML rationalisiert den Prozess der Einrichtung von Beziehungen zwischen Eingabevariablen und Zielvariablen, insbesondere bei komplexen multivariaten Aufgaben.
Computer Vision ist die Verwendung von Computern zur Verarbeitung visueller Daten, wie Bilder und Videos. AutoML-Systeme können Modelle generieren, die für visuelle Klassifizierungsaufgaben wie Objekterkennung, Bildklassifizierung und intelligente Texterkennung konzipiert sind. Anwendungsfall können die Moderation und Filterung von Inhalten, die Kennzeichnung von Bildern und andere verwandte Aufgaben umfassen.
AutoML-Systeme können Modelle auch auf den Einsatz in fortgeschritteneren Computer-Vision-Kontexten, wie z. B. bei selbstfahrenden Autos, abstimmen.
Verarbeitung natürlicher Sprache (NLP) ermöglicht es KI-Systemen, Eingaben wie Prompts und juristische Dokumente zu interpretieren. Chatbot-Erstellung, Textklassifizierung mit mehreren Klassen und mehreren Labels, Analyse der Kundenstimmung, Erkennung benannter Entitäten und Sprachübersetzung sind alles Beispiele für komplexe NLP-Aufgaben, die mit AutoML einfach erledigt werden können.
Data Scientist können mit AutoML benutzerdefinierte Modelle erstellen, die automatisch für eine hohe Leistung in ihren vorgesehenen Anwendungsfall optimiert werden. Andernfalls müssen Data Scientist bei der manuellen Erstellung von NLP-Modellen entweder bei Null beginnen oder ihre Modelle auf früheren Modellen aufbauen, die möglicherweise nicht so gut funktionieren wie ein maßgeschneidertes, automatisch generiertes Modell.
Obwohl AutoML viele Vorteile für KI-Entwickler bringt, ist es kein vollständiger Ersatz für menschliches Wissen, Erfahrung, Fähigkeiten und Kreativität. Zu den Einschränkungen von AutoML gehören:
Hohe Kosten: Je anspruchsvoller die Aufgabe, desto fortschrittlicher muss das entsprechende Modell sein. Die Kosten von AutoML können schnell außer Kontrolle geraten, wenn diese Technik zur Erstellung großer, komplexer Modelle eingesetzt wird.
Mangelnde Interpretierbarkeit: Mit AutoML generierte Modelle tappen manchmal in die Falle der „Blackbox-KI“, bei der das Innenleben des Modells unklar ist. Menschliche Entwickler können Modelle erstellen, die nach den Prinzipien erklärbarer KI entworfen wurden, aber das ist bei AutoML-Lösungen nicht garantiert.
Risiko der Überanpassung: Eine Überanpassung – bei der sich ein trainiertes Modell zu eng an seinen Trainingsdaten orientiert und das Gelernte nicht auf reale Daten übertragen kann – kann durch menschliches Eingreifen und eine sorgfältige Überwachung des Lernprozesses gemindert werden.
Eingeschränkte Kontrolle: Entwickler opfern Kontrolle zugunsten der Effizienz durch Automatisierung. In Nischenfällen, in denen hochgradig angepasste Modelle benötigt werden, kann es für AutoML-Lösungen schwierig sein, ein geeignetes Modell bereitzustellen.
Datenabhängigkeit: Ein KI-Modell ist so stark wie seine Trainingsdaten. Sowohl von Menschen erstellte als auch von AutoML erstellte Modelle können nicht gut funktionieren, wenn sie nicht mit hochwertigen Daten versehen werden.
Entwicklern von KI-Modellen steht eine breite Palette an AutoML-Tools zur Verfügung. Dazu zählen:
AutoKeras: Ein Open-Source-Tool, das auf der Keras-Bibliothek und TensorFlow basiert.
Auto-PyTorch: Eine AutoML-Lösung zur Automatisierung von mit PyTorch erstellten Projekten im Bereich maschinelles Lernen.
Google Cloud AutoML: Die AutoML-Lösung von Google ist auf der Cloud-Plattform für maschinelles Lernen verfügbar.
Lale1: Eine halbautomatische Open-Source-Python-Bibliothek, die sich nahtlos in scikit-learn-Pipelines integrieren lässt.
Microsoft Azure AutoML: Entwickler, die Microsoft Azure verwenden, profitieren von seinen AutoML-Funktionen.
Auto-Sklearn: Eine Open-Source-AutoML-Plattform, die auf der scikit-learn-Bibliothek basiert.
1. Library for Semi-Automated Data Science, Hirzel et al., IBM, 28. August 2024
IBM® Granite ist unsere Familie offener, leistungsfähiger und vertrauenswürdiger KI-Modelle, die auf Unternehmen zugeschnitten und für die Skalierung Ihrer KI-Anwendungen optimiert sind. Entdecken Sie die Optionen zu Sprache, Code, Zeitreihen und Guardrails.
Wir haben 2.000 Unternehmen zu ihren KI-Initiativen befragt, um herauszufinden, was funktioniert, was nicht und wie Sie vorankommen können.
Erfahren Sie, wie Sie generative KI, maschinelles Lernen und Foundation Models zur Verbesserung der Leistung in Ihre Geschäftsabläufe integrieren können.
Erfahren Sie, wie Sie das für Ihren Anwendungsfall am besten geeignete KI Foundation Model auswählen.
Maschinelles Lernen ist ein Zweig der KI und der Informatik, der auf Grundlage von Daten und Algorithmen den menschlichen Lernprozess imitiert.
Erfahren Sie mehr über die drei entscheidenden Elemente einer starken KI-Strategie: die Schaffung eines Wettbewerbsvorteils, die Skalierung von KI im gesamten Unternehmen und die Förderung vertrauenswürdiger KI.
Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.
Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.
Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.