Was ist überwachtes Lernen?

Autoren

Ivan Belcic

Staff writer

Cole Stryker

Staff Editor, AI Models

IBM Think

Was ist überwachtes Lernen?

Überwachtes Lernen ist eine Technik des maschinellen Lernens , die gekennzeichnete Datensätze verwendet, um künstliche Intelligenz-Modelle (KI) zu trainieren, um die zugrunde liegenden Muster und Zusammenhänge zu identifizieren. Ziel des Lernprozesses ist es, ein Model zu erstellen, das bei neuen realen Daten korrekte Ergebnisse vorhersagen kann.

Gekennzeichnete Daten bestehen aus Beispieldatenpunkten zusammen mit den richtigen Ausgaben oder Antworten. Während Eingabedaten in den maschinellen Lern-Algorithmus eingespeist werden, passt dieser seine Gewichtungen an, bis das Modell angemessen ausgerichtet ist. Gekennzeichnete Trainingsdaten liefern eine „Grundwahrheit“, die dem Modell explizit beibringt, die Beziehungen zwischen Funktionen und Datenkennzeichnungen zu erkennen.

Überwachtes maschinelles Lernen hilft Unternehmen dabei, verschiedene reale Probleme im großen Maßstab zu lösen, wie zum Beispiel das Klassifizieren von Spam oder die Vorhersage von Aktienkursen. Es kann verwendet werden, um besonders genaue Modelle für maschinelles Lernen zu erstellen.

Was sind Grundwahrheitsdaten?

Die Grundwahrheit-Daten werden anhand von Ergebnissen aus der realen Welt verifiziert, oft durch menschliche Annotation oder Messung, und sie werden verwendet, um Modelle zu trainieren, zu validieren und zu testen. Wie der Name schon sagt, haben sich die Grundwahrheit-Daten als wahr erwiesen – sie spiegeln reale Werte und Ergebnisse wider. Die Grundwahrheit spiegelt die idealen Ergebnisse für bestimmte Eingabedaten wider.

Überwachtes Lernen stützt sich auf Grundwahrheit-Daten, um einem Modell die Beziehungen zwischen Eingaben und Ausgaben beizubringen. Die beim überwachten Lernen verwendeten gekennzeichneten Datensätze sind Grundwahrheit-Daten. Trainierte Modelle nutzen ihr Verständnis dieser Daten, um Vorhersagen auf der Grundlage neuer, unbekannter Daten zu treffen.

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

So funktioniert überwachtes Lernen

Bei überwachten Lerntechniken wird ein gekennzeichneter Trainingsdatensatz verwendet, um die Beziehungen zwischen Eingabe- und Ausgabedaten zu verstehen. Data Scientists erstellen manuell Grundwahrheit-Trainingsdatensätze, die Eingabedaten und die entsprechenden Kennzeichnungen enthalten. Durch überwachtes Lernen wird das Modell trainiert, in realen Anwendungsfällen die richtigen Ausgaben auf neue Daten anzuwenden. 

Während des Trainings verarbeitet der Algorithmus des Modells große Datensätze, um mögliche Korrelationen zwischen Eingaben und Ausgaben zu untersuchen. Anschließend wird die Leistung des Modells anhand von Testdaten bewertet, um herauszufinden, ob es erfolgreich trainiert wurde. Kreuzvalidierung ist der Prozess des Testens eines Modells mit einem anderen Teil des Datensatzes. 

Die Algorithmen-Gruppe des Gradientenabstiegs, einschließlich des stochastischen Gradientenabstiegs (SGD), sind die am häufigsten verwendeten Optimierungsalgorithmen oder Lernalgorithmen beim Training von Neural Networks und anderen maschinellen Lern-Modellen. Der Optimierungsalgorithmus des Modells bewertet die Genauigkeit anhand der Verlustfunktion: einer Gleichung, die die Diskrepanz zwischen den Vorhersagen des Modells und den tatsächlichen Werten misst. 

Die Verlustfunktion misst, wie weit die Vorhersagen von den tatsächlichen Werten entfernt sind. Sein Gradient gibt die Richtung an, in der die Parameter des Modells angepasst werden sollten, um Fehler zu reduzieren. Während des Trainings aktualisiert der Optimierungsalgorithmus die Parameter des Modells – seine Betriebsregeln oder „Einstellungen“ –, um das Modell zu optimieren.

Da große Datensätze in der Regel viele Funktionen enthalten, können Data Scientist diese Komplexität durch Dimensionalitätsreduzierung vereinfachen. Diese Data-Science-Technik reduziert die Anzahl der Funktionen auf die wichtigsten für die Vorhersage von Datenkennzeichnungen, wodurch die Genauigkeit erhalten und gleichzeitig die Effizienz erhöht wird.

Ein Beispiel für überwachtes Lernen in der Praxis

Betrachten Sie als Beispiel für überwachtes Lernen ein Bildklassifizierungsmodell, das erstellt wurde, um Bilder von Fahrzeugen zu erkennen und zu bestimmen, um welchen Fahrzeugtyp es sich handelt. Ein solches Modell kann die CAPTCHA-Tests unterstützen, die viele Websites verwenden, um Spam-Bots zu erkennen. 

Um dieses Modell zu trainieren, bereiten Data Scientists einen gekennzeichneten Datensatz vor, der zahlreiche Fahrzeugbeispiele zusammen mit dem entsprechenden Fahrzeugtyp enthält: Auto, Motorrad, LKW, Fahrrad und mehr. Der Algorithmus des Modells versucht, die Muster in den Trainingsdaten zu identifizieren, die dazu führen, dass eine Eingabe – Fahrzeugbilder – einen bestimmten Ausgabe-Fahrzeugtyp erhält. 

Die Vermutungen des Modells werden mit den tatsächlichen Datenwerten in einem Testsatz verglichen, um festzustellen, ob es genaue Vorhersagen getroffen hat. Wenn nicht, wird der Trainingszyklus fortgeführt, bis die Leistung des Modells ein zufriedenstellendes Maß an Genauigkeit erreicht hat. Das Prinzip der Generalisierung bezieht sich auf die Fähigkeit eines trainierten Modells, angemessene Vorhersagen für neue Daten aus derselben Verteilung wie seine Trainingsdaten zu treffen.

    AI Academy

    Nutzen Sie KI für Ihren Kundenservice

    Erfahren Sie, wie der Einsatz von generativer KI mit einer nahtloseren Erfahrung die Kundenzufriedenheit erhöht und die Produktivität des Unternehmens in diesen drei Schlüsselbereichen steigert: Self-Service, Servicemitarbeiter und Abläufe im Contact Center.

    Typen von überwachtem Lernen

    Überwachte Lernaufgaben können grob in Klassifizierungs- und Regressionprobleme unterteilt werden:

      Klassifikation

      Klassifizierung im maschinellen Lernen verwendet einen Algorithmus, um Daten in Kategorien zu sortieren. Sie erkennt bestimmte Entitäten innerhalb des Datensatzes und versucht zu bestimmen, wie diese Entitäten gekennzeichnet oder definiert werden sollen. Übliche Klassifikationsalgorithmen sind lineare Klassifikatoren, Support Vector Machines (SVM), Entscheidungsbäume, K-Nearest Neighbor (KNN), logistische Regression und Random Forest.

      Neural Networks eignen sich hervorragend für die Bewältigung komplexer Klassifizierungsprobleme. Ein Neural Network ist eine Deep Learning-Architektur, die Trainingsdaten mit Schichten von Knoten verarbeitet, die das menschliche Gehirn imitieren. Jeder Knoten besteht aus Eingaben, Gewichtungen, einer Verzerrung (Schwellenwert) und einer Ausgabe. Wenn ein Ausgangswert einen voreingestellten Schwellenwert überschreitet, wird der Knoten „ausgelöst“ oder aktiviert und leitet Daten an die nächste Schicht im Netzwerk weiter. 

      Regression

      Die Regression dient dazu, das Verhältnis zwischen abhängigen und unabhängigen Variablen zu verstehen. Bei Regression ist die Ausgabe ein kontinuierlicher Wert, und Modelle versuchen, die Zielausgabe vorherzusagen. Zu den Regressionsaufgaben gehören Prognosen für Umsatzerlöse oder Finanzplanung.

      Zu den Regressionsalgorithmen gehören lineare RegressionLasso-Regression, Ridge-Regression und polynomiale Regression sind drei Beispiele von Regressionsalgorithmen.

      Ensemble-Lernen

      Ensemble Learning ist ein Meta-Ansatz des überwachten Lernens, bei dem mehrere Modelle für dieselbe Klassifizierungs- oder Regressionsaufgabe trainiert werden. Die Ergebnisse aller Modelle im Pool werden zusammengefasst, um den besten Gesamtansatz zur Lösung der Herausforderung zu ermitteln.

      Die einzelnen Algorithmen innerhalb des größeren Ensemble-Modells werden als schwache Lerner oder Basismodelle bezeichnet. Einige schwache Lernende haben eine hohe Verzerrung, während andere eine hohe Varianz aufweisen. Theoretisch mindern die Ergebnisse die Abwägung zwischen Verzerrung und Varianz, indem sie die besten Eigenschaften beider Ansätze kombinieren.

      Überwachte Lernalgorithmen

      Optimierungsalgorithmen wie der Gradientenabstieg trainieren eine Vielzahl von Algorithmen des maschinellen Lernens, die sich durch überwachte Lernaufgaben auszeichnen. 

      • Naive Bayes: Naive Bayes ist ein Klassifikationsalgorithmus, der das Prinzip der bedingten Unabhängigkeit der Klasse vom Bayes-Theorem übernimmt. Das bedeutet, dass das Vorhandensein eines Merkmals keinen Einfluss auf das Vorhandensein eines anderen Merkmals in Bezug auf die Wahrscheinlichkeit eines Ergebnisses hat und dass jeder Prädiktor den gleichen Einfluss auf dieses Ergebnis hat.

        Zu den Naive Bayes-Klassifikatoren gehören Multinomial, Bernoulli und Gaussian Naive Bayes. Diese Technik wird häufig in Textklassifizierungs-, Spam-Identifikations- und Empfehlungssystemen verwendet. 

      • Lineare Regression: Die lineare Regression wird verwendet, um die Beziehung zwischen einer kontinuierlichen abhängigen Variable und einer oder mehreren unabhängigen Variablen zu identifizieren. Es wird normalerweise verwendet, um Vorhersagen über zukünftige Ergebnisse zu treffen.

        Die lineare Regression drückt die Beziehung zwischen Variablen als gerade Linie aus. Wenn es nur eine unabhängige Variable und eine abhängige Variable gibt, wird dies als einfache lineare Regression bezeichnet. Wenn die Anzahl der unabhängigen Variablen zunimmt, wird die Technik als multiple lineare Regression bezeichnet. 

      • Nicht lineare Regression: Manchmal kann eine Ausgabe nicht aus linearen Eingaben reproduziert werden. In diesen Fällen müssen die Outputs mit einer nichtlinearen Funktion modelliert werden. Die nicht lineare Regression drückt eine Beziehung zwischen Variablen durch eine nicht lineare oder gekrümmte Linie aus. Nicht lineare Modelle können komplexe Beziehungen mit vielen Parametern verarbeiten. 

      • Logistische Regression: Die logistische Regression verarbeitet kategoriale abhängige Variablen, wenn sie binäre Ausgaben haben, wie z. B.wahr oder falsch oder positiv oder negativ. Sowohl lineare als auch logistische Regressionsmodelle versuchen, Beziehungen zwischen Dateneingaben zu verstehen. Allerdings wird die logistische Regression hauptsächlich zur Lösung binärer Klassifizierungsprobleme wie Spam-Erkennung eingesetzt. 

      • Polynomiale Regression: Ähnlich wie andere Regressionsmodelle modelliert die polynomiale Regression eine Beziehung zwischen Variablen in einem Diagramm. Die bei der polynomialen Regression verwendeten Funktionen bringen diese Beziehung in exponentiellem Maße zum Ausdruck. Die polynomiale Regression ist ein Sonderfall der Regression, bei dem Eingabefunktionen erhöht werden, sodass lineare Modelle an nichtlineare Muster angepasst werden können. 

      • Support Vector Machine (SVM): Eine Support Vector Machine wird sowohl für die Datenklassifizierung als auch für die Regression verwendet. Allerdings werden damit in der Regel Klassifizierungsprobleme behandelt. Hier trennt SVM die Klassen von Datenpunkten durch eine Entscheidungsgrenze oder Hyperebene. Das Ziel des SVM-Algorithmus ist es, die Hyperebene zu zeichnen, die den Abstand zwischen den Gruppen von Datenpunkten maximiert. 

      • K-Nearest Neighbor: K-Nearest Neighbor (KNN) ist ein nichtparametrischer Algorithmus, der Datenpunkte basierend auf ihrer Nähe und Verbindung zu anderen verfügbaren Daten klassifiziert. Dieser Algorithmus geht davon aus, dass ähnliche Datenpunkte nahe beieinander gefunden werden, wenn sie mathematisch aufgetragen werden.

        Seine Benutzerfreundlichkeit und die geringe Rechenzeit machen es effizient beim Einsatz für Empfehlungsmaschinen und Bilderkennung. Mit zunehmendem Testdatensatz verlängert sich jedoch die Verarbeitungszeit, wodurch er für Klassifizierungsaufgaben weniger attraktiv ist. 

      • Random Forest: Random Forest ist ein flexibler Algorithmus für überwachtes maschinelles Lernen, der sowohl für Klassifizierungs- als auch für Regressionszwecke verwendet wird. Der Begriff „Forest“ verweist auf eine Ansammlung unkorrelierter Entscheidungsbäume, die zusammengeführt werden, um die Varianz zu reduzieren und die Genauigkeit zu erhöhen. 

        Überwachtes Lernen im Vergleich zu anderen Lernmethoden

        Überwachtes Lernen ist nicht die einzige Lernmethode für das Training von maschinellen Lernmodellen. Andere Arten des maschinellen Lernens sind: 

        • Unüberwachtes Lernen

        • Halbüberwachtes Lernen 

        • Selbstüberwachtes Lernen

        • Verstärkendes Lernen 

            Überwachtes versus unüberwachtes Lernen

            Der Unterschied zwischen überwachtem Lernen und unüberwachtem Lernen besteht darin, dass unüberwachtes maschinelles Lernen ungekennzeichnete Daten ohne objektive Grundwahrheit verwendet. Das Modell muss Muster und Beziehungen in den Daten selbst erkennen. Viele generative KI-Modelle werden zunächst mit unüberwachtem Lernen und später mit überwachtem Lernen trainiert, um das Fachwissen zu erweitern. 

            Unüberwachtes Lernen kann zur Lösung von Cluster- oder Zuordnungsproblemen beitragen, bei denen gemeinsame Eigenschaften innerhalb eines Datensatzes ungewiss sind. Gängige Clustering-Algorithmen sind hierarchische, K-Means- und Gaußsche Mischungsmodelle.

              Vorteile des unüberwachten Lernens

              • Explorative Analyse: Unüberwachtes Lernen ist nützlich, wenn nicht bekannt ist, worauf zu achten ist. Sie kann versteckte Strukturen oder Anomalien in Daten finden, die Menschen vielleicht nicht erwarten.

              • Keine Datenkennzeichnung: Die meisten realen Daten sind nicht gekennzeichnet, und die Kennzeichnung von Daten ist sehr zeit- und arbeitsaufwändig.

              • Flexibilität: Unüberwachte Lernmodelle können sich aufgrund ihrer Fähigkeit, Daten autonom zu verarbeiten, schnell an neue Daten anpassen.

              • Skalierbarkeit: Ohne die Notwendigkeit von Grundwahrheit-Kennzeichnungen sind unüberwachte Lernmethoden leicht auf massive Datensätze skalierbar.

              Nachteile des unüberwachten Lernens

              • Unpräzise Ergebnisse: Ohne die Grundlage der Grundwahrheit ist nicht sofort klar, ob ein unüberwachtes Lernmodell korrekt trainiert wurde.

              • Sensitivität: Verrauschte Datensätze können sich negativ auf die Trainingsergebnisse auswirken. Funktionsentwicklung kann dabei helfen, Datensätze für ein reibungsloseres unüberwachtes Lernen zu normalisieren.

              • Abhängigkeit von guten Daten: Für jedes Training sind gute Daten erforderlich. Aber ohne objektive Grundwahrheit können Verzerrung oder andere Fehler in den Daten zu Modellen führen, die diese Missverständnisse verstärken.

              Überwachtes versus halbüberwachtes Lernen

              Halbüberwachtes Lernen beinhaltet das Training eines Modells mit einem kleinen Teil gekennzeichneter Eingabedaten zusammen mit einem größeren Teil ungekennzeichneter Daten. Da es zeitaufwändig und kostspielig sein kann, sich auf Fachwissen zu verlassen, um Daten für überwachtes Lernen angemessen zu kennzeichnen, kann halbüberwachtes Lernen eine attraktive Alternative sein.

                Vorteile des halbüberwachten Lernens

                • Weniger Abhängigkeit von der Kennzeichnung: Im Vergleich zum überwachten Lernen erfordert halbüberwachtes Lernen weniger Kennzeichnung, was die Einstiegshürde für das Modelltraining senkt.
                   

                • Erkennung versteckter Muster: Wie beim unüberwachten Lernen kann auch beim halbüberwachten Lernen die Verwendung von ungekennzeichneten Daten zur Entdeckung von Mustern, Beziehungen und Anomalien führen, die sonst unbemerkt bleiben würden.
                   

                • Flexibler: Halbüberwachtes Lernen schafft eine Grundlage durch Grundwahrheit-Daten und erweitert diese dann mit ungekennzeichneten Datensätzen, um Modelle generalisierbarer zu machen.

                Nachteile des halbüberwachten Lernens

                • Rauschempfindlich: Nicht gekennzeichnete Datensätze mit hohem Rauschgrad können die Trainingsergebnisse verfälschen und die Modellleistung schwächen.
                   

                • Verzerrungsempfindlichkeit: Wenn ungekennzeichnete Datensätze nicht auf implizite Verzerrung überprüft werden, können diese Verzerrungen auf die trainierten Modelle übertragen werden.
                   

                • Komplexer: Das Zusammenführen von gekennzeichneten und ungekennzeichneten Daten in einem einzigen Trainingsprozess kann komplexe Datenverarbeitungstechniken erfordern oder mehr Rechenressourcen notwendig machen.

                Überwachtes versus selbstüberwachtes Lernen

                Selbstüberwachtes Lernen (SSL) wird oft als Brücke zwischen überwachtem und unüberwachtem Lernen beschrieben. Anstatt die manuell erstellten Kennzeichnungen von überwachten Datensätzen zu verwenden, sind SSL-Aufgaben so konfiguriert, dass das Modell seine eigenen Überwachungssignale – implizite oder Pseudo-Kenzeichnungen – erzeugen und die Grundwahrheit aus unstrukturierten Daten erkennen kann. Anschließend verwendet die Verlustfunktion des Modells diese Kennzeichnungen anstelle der tatsächlichen Kennzeichnungen, um die Modellleistung zu bewerten.

                SSL wird häufig in Verbindung mit Transferlernen eingesetzt, einem Prozess, bei dem ein vortrainiertes Modell auf eine nachgelagerte Aufgabe angewendet wird. Selbstüberwachtes Lernen wird häufig bei Aufgaben der Computer Vision und der Verarbeitung natürlicher Sprache eingesetzt, für die große Datensätze erforderlich sind, die bei der Kennzeichnung sehr teuer und zeitaufwändig sind.

                Vorteile des selbstüberwachten Lernens

                • Effizienz: Anstatt dass Data Scientists die Datenpunkte kennzeichnen, automatisiert SSL den Kennzeichnungsprozess, indem die Aufgabe an das Modell übertragen wird.

                • Skalierbarkeit: Die geringere Abhängigkeit von SSL von manueller Datenkennzeichnung eignet sich gut für die Skalierung mit größeren Pools von nicht gekennzeichneten Daten.
                   

                • Geringe Abhängigkeit von Kennzeichnungen: In Fällen, in denen gekennzeichnete Referenzdaten spärlich sind, gleicht SSL den Mangel durch modellgeneriertes Verständnis aus.
                   

                • Vielseitigkeit: Selbstüberwachte Modelle lernen umfangreiche, übertragbare Funktionen, die für viele domänenspezifische und multimodale Aufgaben optimiert werden können.

                Nachteile des selbstüberwachten Lernens

                • Rechenintensiv: Die Verarbeitung nicht gekennzeichneter Datensätze und die Erstellung von Kennzeichnungen erfordert viel Rechenleistung.
                   

                • Komplex: Der Prozess der Erstellung von Voraufgaben für überwachtes Lernen – die anfängliche Lernphase – erfordert ein hohes Maß an Fachwissen.
                   

                • Potenziell unzuverlässig: Wie bei jeder Lerntechnik, die menschliche Aufsicht entzieht, hängen die Ergebnisse davon ab, dass die Daten frei von übermäßigem Rauschen, impliziten Verzerrungen und anderen Faktoren sind, die das Verständnis des Modells negativ beeinflussen können.

                Überwachtes Lernen versus verstärkendem Lernen

                Durch bestärkendes Lernen werden autonome Agenten wie Roboter und selbstfahrende Autos trainiert, Entscheidungen durch Interaktionen mit der Umgebung zu treffen. Beim bestärkenden Lernen werden keine gekennzeichneten Daten verwendet. Außerdem unterscheidet es sich vom unüberwachten Lernen dadurch, dass es durch Versuch und Irrtum sowie Belohnung lernt und nicht durch die Identifizierung zugrunde liegender Muster in einem Datensatz.

                Vorteile des verstärkenden Lernens

                • Löst komplexe Aufgaben: Der Versuch-und-Irrtum-Trainingsprozess kann ein Modell dazu bringen, herauszufinden, wie es komplexe strategische Herausforderungen angehen kann.
                   

                • Nicht auf Kennzeichnung angewiesen: Modelle lernen durch Erfahrung und nicht theoretisch durch den Abgleich von Eingaben mit Ausgaben.
                   

                • Selbstkorrigierend: Modelle verfeinern ihr eigenes Verhalten, wenn sie während des Trainings etwas falsch machen.
                   

                • Anpassungsfähig: Modelle können sich an neue Informationen und sich ändernde Umstände anpassen, in denen die Ergebnisse nicht vordefiniert sind.

                Nachteile des verstärkenden Lernens

                • Anfällig für inkonsistente Ergebnisse: Lernen durch Versuch und Irrtum kann willkürlich und unvorhersehbar erscheinen, insbesondere zu Beginn des Trainings.
                   

                • Bedarf an Umgebungsdaten: Beim verstärkenden Lernen müssen die Modelle aus den Konsequenzen ihrer Handlungen lernen, was wiederum große Mengen an Umgebungsdaten erfordert. Allerdings können Agenten auch in simulierten Umgebungen lernen.
                   

                • Belohnungs-Hacking: Modelle können Schwachstellen im Belohnungsalgorithmus ausnutzen, um Belohnungen zu generieren, ohne ihre Aufgaben angemessen zu erledigen.
                   

                • Aufgabenspezifisch: Verstärkendes Lernen zeichnet sich durch das Trainieren von Modellen für eine bestimmte Funktion aus. Diese Modelle können Schwierigkeiten haben, das Gelernte auf neue Aufgaben zu übertragen.

                Anwendungsfälle für überwachtes Lernen in der Praxis

                Modelle für überwachtes Lernen können Geschäftsanwendungen erstellen und verbessern, einschließlich: 

                • Bild- und Objekterkennung: Überwachte Lernalgorithmen können verwendet werden, um Objekte aus Videos oder Bildern zu lokalisieren, zu isolieren und zu kategorisieren, was sie nützlich macht für Computer Vision und Bildanalyseaufgaben. 

                • Prädiktive Analysen: Überwachte Lernmodelle erstellen prädiktive Analysesysteme, um Erkenntnisse zu gewinnen. Auf diese Weise können Unternehmen anhand einer Ausgabevariablen Ergebnisse vorhersagen und datengestützte Entscheidungen treffen. Das wiederum ermöglicht es Führungskräften, ihre Entscheidungen zu begründen oder zugunsten des Unternehmens umzuschwenken.

                  Mithilfe der Regression können Gesundheitsdienstleister außerdem Ergebnisse auf der Grundlage von Patientenkriterien und historischen Daten vorhersagen. Ein Vorhersagemodell könnte das Risiko eines Patienten für eine bestimmte Krankheit oder einen bestimmten Zustand auf der Grundlage seiner biologischen Daten und seiner Lebensgewohnheiten beurteilen. 

                • Analyse der Kundenstimmung: Unternehmen können mit geringem menschlichem Eingreifen wichtige Informationen aus großen Datenmengen extrahieren und klassifizieren – darunter Kontext, Emotionen und Absichten. Die Stimmungsanalyse ermöglicht ein besseres Verständnis der Kundeninteraktionen und kann verwendet werden, um die Markenbindung zu verbessern. 

                • Kundensegmentierung: Regressionsmodelle können das Kundenverhalten auf der Grundlage verschiedener Merkmale und historischer Trends vorhersagen. Unternehmen können Vorhersagemodelle nutzen, um ihren Kundenstamm zu segmentieren und Buyer Personas zu erstellen, um Marketingmaßnahmen und Produktentwicklung zu verbessern. 

                • Spam-Erkennung: Die Spam-Erkennung ist ein weiteres Beispiel für ein überwachtes Lernmodell. Mithilfe überwachter Klassifizierungsalgorithmen können Unternehmen Datenbanken trainieren, um Muster oder Anomalien in neuen Daten zu erkennen und Spam- und Nicht-Spam-Korrespondenzen effektiv zu organisieren. 

                • Prognosen: Regressive Modelle zeichnen sich durch Prognosen auf Grundlage historischer Trends aus, wodurch sie sich für den Einsatz in den Branchen eignen. Unternehmen können die Regression auch nutzen, um den Bestand vorherzusagen, die Gehälter der Mitarbeiter zu schätzen und mögliche Störungen in der Lieferkette zu vermeiden. 

                • Empfehlungsmaschinen: Mit überwachten Lernmodellen können Inhaltsanbieter und Online-Marktplätze die Entscheidungen, Präferenzen und Käufe von Kunden analysieren und Empfehlungsmaschinen entwickeln, die maßgeschneiderte Empfehlungen bieten, die eher zur Konversion führen.

                    Herausforderungen des überwachten Lernens

                    Obwohl das überwachte Lernen Unternehmen Vorteile wie tiefe Erkenntnisse und verbesserte Automatisierung bieten kann, ist es möglicherweise nicht für alle Situationen die beste Wahl. 

                    • Personalbeschränkungen: Für die genaue Strukturierung überwachter Lernmodelle ist ein gewisses Maß an Fachwissen erforderlich. 

                    • Menschliche Beteiligung: Überwachte Lernmodelle sind nicht in der Lage, selbst zu lernen. Data Scientists müssen die Ausgabe der Modelle validieren. 

                    • Zeitaufwand: Die Trainingsdatensätze sind groß und müssen manuell gekennzeichnet werden, was den überwachten Lernprozess zeitintensiv macht. 

                    • Inflexibilität: Modelle des überwachten Lernens können Daten außerhalb der Grenzen ihrer Trainingsdatensätze nur schwer kennzeichnen. Ein unüberwachtes Lernmodell könnte besser mit neuen Daten umgehen. 

                    • Voreingenommenheit: Bei Datensätzen besteht ein höheres Risiko menschlicher Fehler und Voreingenommenheit, was dazu führt, dass Algorithmen falsch erlernen.  Voreingenommenheit kann durch unausgewogene Trainingsdatensätze, mangelhafte Annotationspraktiken oder historische Ungleichheiten, die sich in den Daten widerspiegeln, entstehen.

                    • Überanpassung: Überwachtes Lernen kann manchmal zu einer Überanpassung führen, bei der ein Modell zu eng an seinen Datensatz angepasst wird. Eine hohe Genauigkeit beim Training kann auf eine Überanpassung im Gegensatz zu einer allgemein starken Leistung hindeuten. Um eine Überanpassung zu vermeiden, müssen die Modelle mit Daten getestet werden, die sich von den Trainingsdaten unterscheiden.

                      Weiterführende Lösungen
                      IBM watsonx.ai

                      Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

                      Entdecken sie watsonx.ai
                      Lösungen im Bereich künstlicher Intelligenz

                      Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

                      Erkunden Sie KI-Lösungen
                      KI-Beratung und -Services

                      Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

                      KI-Services entdecken
                      Machen Sie den nächsten Schritt

                      Profitieren Sie von einem einheitlichen Zugriff auf Funktionen, die den gesamten Lebenszyklus der KI-Entwicklung abdecken. Erstellen Sie leistungsstarke KI-Lösungen mit benutzerfreundlichen Oberflächen, Workflows und Zugriff auf branchenübliche APIs und SDKs.

                      watsonx.ai erkunden Live-Demo buchen