Was ist lineare Diskriminanzanalyse (LDA)?

Was ist LDA?

Die lineare Diskriminanzanalyse (LDA) ist ein Ansatz, der beim überwachten maschinellen Lernen zur Lösung von Problemen bei der Klassifizierung mehrerer Klassen verwendet wird. LDA trennt mehrere Klassen mit unterschiedlichen Merkmalen durch Reduzierung der Daten-Dimensionalität. Im Bereich der Data Science ist diese Technik wichtig, da sie zur Optimierung von Modellen für maschinelles Lernen beiträgt.

Die lineare Diskriminanzanalyse, auch bekannt als normale Diskriminanzanalyse (NDA) oder Diskriminanzfunktionsanalyse (DFA), folgt einem generativen Modellframework. Das bedeutet, dass LDA-Algorithmen die Datenverteilung für jede Klasse modellieren und das Bayes' Theorem1 verwenden, um neue Datenpunkte zu klassifizieren. Bayes berechnet bedingte Wahrscheinlichkeiten – die Wahrscheinlichkeit eines Ereignisses, unter der Voraussetzung, dass ein anderes Ereignis eingetreten ist. LDA-Algorithmen treffen Vorhersagen, indem sie Bayes verwenden, um die Wahrscheinlichkeit zu berechnen, mit der ein Eingabedatensatz zu einem bestimmten Ausgabedatensatz gehört. Eine Übersicht über die Bayes'sche Statistik und ihre Auswirkungen auf überwachte Lernalgorithmen finden Sie unter Naive-Bayes-Klassifikatoren

LDA arbeitet mit der Identifizierung einer linearen Kombination von Funktionen, die zwei oder mehr Klassen von Objekten oder Ereignissen voneinander trennt oder charakterisiert. LDA projiziert dazu Daten mit zwei oder mehr Dimensionen in eine Dimension, damit sie einfacher klassifiziert werden können. Diese Technik wird daher manchmal auch als „Reduzierung der Dimensionalität“ bezeichnet. Diese Vielseitigkeit stellt sicher, dass LDA für Probleme der Datenklassifizierung in mehreren Klassen verwendet werden kann, im Gegensatz zur logistischen Regression, die auf die binäre Klassifizierung beschränkt ist. LDA wird daher häufig eingesetzt, um die Funktionsweise anderer lernender Klassifizierungsalgorithmen wie EntscheidungsbaumZufallswald oder Support Vector Machines (SVM) zu verbessern.

Grafik, die die Auswirkungen auf einen Datencluster vor und nach der Anwendung von LDA-Methoden zeigt

Der Ursprung der linearen Diskriminanzanalyse

Die lineare Diskriminanzanalyse (LDA) basiert auf der linearen Diskriminanzanalyse von Fisher, einer statistischen Methode, die in den 1930er Jahren von Sir Ronald Fisher entwickelt und später von C. R. Rao als Mehrklassenversion vereinfacht wurde. Die Fisher-Methode zielt darauf ab, eine lineare Kombination von Merkmalen zu identifizieren, die zwischen zwei oder mehr Klassen von gekennzeichneten Objekten oder Ereignissen unterscheidet.

Die Fisher-Methode reduziert die Dimensionen, indem sie Klassen von projizierten Daten trennt. Separation bedeutet, den Abstand zwischen den prognostizierten Mitteln zu maximieren und die prognostizierte Varianz innerhalb der Klassen zu minimieren.

Eine praktische Anwendung von LDA

Nehmen wir eine Bank, die entscheidet, ob Kreditanträge genehmigt oder abgelehnt werden sollen. Die Bank stützt sich bei dieser Entscheidung auf zwei Faktoren: die Bonität des Antragstellers und sein Jahreseinkommen.

Hier werden die beiden Merkmale oder Klassen auf einer zweidimensionalen (2D) Ebene mit einer X-Y-Achse dargestellt. Wenn wir versuchen würden, Genehmigungen anhand nur eines Merkmals zu klassifizieren, könnten wir Überschneidungen feststellen. Durch die Anwendung der linearen Diskriminanzanalyse können wir eine gerade Linie zeichnen, die diese beiden Klassendatenpunkte vollständig voneinander trennt. LDA erreicht dies, indem es die X-Y-Achse verwendet, um eine neue Achse zu erstellen, die verschiedenen Klassen durch eine gerade Linie trennt und Daten auf die neue Achse projiziert.

Um diese neue Achse zu erstellen und die Dimensionalität zu reduzieren, folgt LDA diesen Kriterien:

  • Maximieren Sie den Abstand zwischen den Mittelwerten zweier Klassen.
  • Minimieren Sie die Varianz innerhalb der einzelnen Klassen.

Eigenschaften und Annahmen von LDA

LDA funktionieren, indem sie einen Funktionsraum, d. h. einen Datensatz mit n Dimensionen, auf einen kleineren Raum „k“ projizieren, wobei k kleiner oder gleich n – 1 ist, ohne dass Klasseninformationen verloren gehen. Ein LDA-Modell umfasst die statistischen Eigenschaften, die für die Daten in jeder Klasse berechnet werden. Wenn mehrere Merkmale oder Variablen vorhanden sind, werden diese Eigenschaften mithilfe der multivariaten Gauß-Verteilung3 berechnet.

Die Multivariaten sind:

  • Mittelwert
  • Kovarianzmatrix, die misst, wie jede Variable oder jedes Merkmal mit anderen innerhalb der Klasse zusammenhängt

Die statistischen Eigenschaften, die aus dem Datensatz geschätzt werden, werden in die LDA-Funktion eingespeist, um Vorhersagen zu treffen und das LDA-Modell zu erstellen. Es sind einige Einschränkungen zu beachten, da das Modell von Folgendem ausgeht:

  • Der Eingabedatensatz hat eine Gaußsche Verteilung, bei der die grafische Darstellung der Datenpunkte eine glockenförmige Kurve ergibt.
  • Der Datensatz ist linear trennbar, d. h. LDA kann eine gerade Linie oder eine Entscheidungsgrenze zeichnen, die die Datenpunkte trennt.
  • Jede Klasse hat die gleiche Kovarianzmatrix.

Aus diesen Gründen funktionieren LDA in Räumen mit vielen Dimensionen möglicherweise nicht gut.

Die Rolle von Eigenvektoren und Eigenwerten

Bei der Dimensionsreduktion werden Datenpunkte durch eine gerade Linie getrennt. Mathematisch werden lineare Transformationen mithilfe von Eigenvektoren und Eigenwerten analysiert. Stellen Sie sich vor, Sie haben einen Datensatz mit mehreren Merkmalen abgebildet, woraus ein mehrdimensionales Streudiagramm resultiert. Eigenvektoren geben die „Richtung“ innerhalb des Streudiagramms vor. Eigenwerte geben die Bedeutung dieser Richtungsdaten an. Ein hoher Eigenwert bedeutet, dass der zugehörige Eigenvektor kritischer ist.

Bei der Dimensionsreduktion werden die Eigenvektoren aus dem Datensatz berechnet und in zwei Streumatrizen gesammelt:

  • Streumatrix zwischen den Klassen (Informationen über die Datenstreuung innerhalb jeder Klasse)
  • Streumatrix innerhalb der Klasse (wie die Klassen untereinander verteilt sind).

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Vorbereitung der Implementierung der linearen Diskriminanzanalyse

Um LDA effektiv nutzen zu können, ist es wichtig, den Datensatz vorher vorzubereiten. Dies sind die Schritte und Best Practices zur Implementierung von LDA:

1. Verarbeiten Sie die Daten vor, um sicherzustellen, dass sie normalisiert und zentriert sind

Dies wird durch die Übergabe des n-Komponentenparameters des LDA erreicht, der die Anzahl der abzurufenden linearen Diskriminanten identifiziert.

2. Wählen Sie eine angemessene Anzahl von Dimensionen für den niederdimensionalen Raum

Dies wird durch die Übergabe des n-Komponentenparameters des LDA erreicht, der die Anzahl der abzurufenden linearen Diskriminanten identifiziert.

3. Regularisieren Sie das Modell

Die Regularisierung verhindert die Überanpassung, bei der das statistische Modell genau mit den Trainingsdaten übereinstimmt, wobei die Genauigkeit beeinträchtigt wird.

4. Verwenden der Kreuzvalidierung zur Bewertung der Modellleistung

Sie können Klassifikatoren wie LDA bewerten, indem Sie eine Konfusionsmatrix mit tatsächlichen Klassenwerten als Zeilen und prognostizierten Klassenwerten als Spalten erstellen. Anhand einer Konfusionsmatrix lässt sich leicht erkennen, ob ein Klassifikator zwei Klassen verwechselt, d. h. eine Klasse fälschlicherweise als eine andere bezeichnet. Betrachten Sie zum Beispiel eine 10 x 10 Konfusionsmatrix, die Bilder von Null bis 9 vorhersagt. Die tatsächlichen Werte werden in Zeilen auf der y-Achse aufgetragen. Prognosen werden in Spalten auf der X-Achse dargestellt. Um zu sehen, wie oft ein Klassifikator Bilder von 4en und 9en im Beispiel für die 10 x 10-Konfusionsmatrix verwechselt hat, überprüfen Sie die 4. Zeile und die 9. Spalte.

eine Konfusion-Matrix, in der Ist-Werte und Prognosen gegenübergestellt werden

So funktioniert die lineare Diskriminanzfunktion

Die lineare Diskriminanzfunktion hilft bei der Entscheidungsfindung bei Klassifizierungsproblemen, indem sie Datenpunkte anhand von Merkmalen trennt und sie in verschiedene Klassen oder Kategorien einteilt. Der Berechnungsprozess lässt sich in diesen Hauptschritten zusammenfassen:

Berechnen der Varianz zwischen den Klassen

Die Varianz zwischen den Klassen ist die Trennbarkeit zwischen den Klassen – der Abstand zwischen den Klassenmittelwerten.

Berechnen der Varianz innerhalb der Klasse

Die Varianz innerhalb der Klasse ist der Abstand zwischen Klassenmittelwerten und Stichproben.

Projizieren der Daten in einen niedrigdimensionalen Raum

Dadurch wird die Varianz zwischen den Klassen maximiert und die Varianz innerhalb der Klasse minimiert. Wir können die lineare Diskriminanzfunktion für zwei Klassen mathematisch wie folgt darstellen.

δ(x) = x * ( σ2 * (μ01) - 2 * σ2 * (μ0212) + ln(P(w0) / P(w1)))

Wo gilt:

  • δ(x) stellt die lineare Diskriminanzfunktion dar.
  • x stellt den Eingabedatenpunkt dar.
  • μ0 und μ1 sind die Mittelwerte der beiden Klassen.
  • σ2 ist die übliche Varianz innerhalb der Klasse.
  • P(ω0) und P(ω1) sind die A-priori-Wahrscheinlichkeiten der beiden Klassen.

Anwendung von LDA anhand eines Beispiels

Lassen Sie uns die Gleichung verwenden, um ein Beispiel für die Kreditvergabe durchzugehen. Um es noch einmal zusammenzufassen: Die Bank entscheidet, ob sie Kreditanträge genehmigt oder ablehnt. Die Bank verwendet zwei Kriterien, um diese Entscheidung zu treffen: die Bonität des Antragstellers (x) und das Jahreseinkommen. Die Bank hat historische Daten über frühere Kreditantragsteller und darüber, ob die Kredite genehmigt wurden, gesammelt.

  • Klasse ω0 steht für „Kredit abgelehnt“.
  • Klasse ω1 steht für „Kredit genehmigt“.

Mit Hilfe der linearen Diskriminanzfunktion kann die Bank für jeden Kreditantrag einen Score (δ(x)) berechnen. 

Die Gleichung für die lineare Diskriminanzfunktion könnte in etwa so aussehen:

δ(x) = x * ( σ2 * (μ01) - 2 * σ2 * (μ0212) + ln(P(w0) / P(w1)))

  • x steht für die Kreditwürdigkeit und das Jahreseinkommen des Antragstellers.
  • μ0 und μ1 sind die Mittelwerte dieser Merkmale für die beiden Klassen: „Kredit abgelehnt“ und „Kredit genehmigt“.
  • σ2 ist die übliche Varianz innerhalb der Klasse.
  • P(ω0) ist die A-priori-Wahrscheinlichkeit von „Kredit abgelehnt“, und P(ω1) ist die A-priori-Wahrscheinlichkeit von „Kredit genehmigt“.

Die Bank berechnet die lineare Diskriminanzfunktion für jeden Kreditantrag.

  • Wenn δ(x) positiv ist, deutet das darauf hin, dass der Kreditantrag eher genehmigt wird.
  • Wenn δ(x) negativ ist, deutet das darauf hin, dass der Kreditantrag eher abgelehnt wird.

Die Bank kann so ihren Kreditgenehmigungsprozess automatisieren und schnellere und konsistentere Entscheidungen treffen, während menschliche Vorurteile minimiert werden.

Anwendungen der linearen Diskriminanzanalyse

Dies sind typische Szenarien, in denen LDA eingesetzt werden kann, um komplexe Probleme anzugehen und Unternehmen dabei zu helfen, bessere Entscheidungen zu treffen.

Kreditrisikobewertung im Finanzwesen

Um Risiken zu minimieren, müssen Finanzinstitute Kreditausfälle identifizieren und minimieren. LDA kann dabei helfen, Bewerber zu identifizieren, die wahrscheinlich Kredite nicht zurückzahlen werden, indem finanzielle Faktoren und Verhaltensdaten ausgewertet werden.

Krankheitsdiagnose im Gesundheitswesen

Eine schnelle und genaue Diagnose ist für eine wirksame Behandlung von entscheidender Bedeutung. Krankenhäuser und Gesundheitsdienstleister müssen eine immense Menge an medizinischen Daten interpretieren. LDA hilft, komplexe Datensätze zu vereinfachen und die Diagnosegenauigkeit zu verbessern, indem Muster und Beziehungen in Patientendaten identifiziert werden.

Kundensegmentierung im E-Commerce

Für ein effektives Marketing müssen E-Commerce-Unternehmen in der Lage sein, verschiedene Kundenstämme zu kategorisieren. LDA ist für die Segmentierung von Kunden von entscheidender Bedeutung und ermöglicht es E-Commerce-Unternehmen, ihre Marketingstrategien auf verschiedene Kundengruppen zuzuschneiden. Das Ergebnis sind individuellere Einkaufserlebnisse, eine stärkere Kundenbindung und höhere Umsätze.

Qualitätssicherung in der Fertigung

Die Herstellung hochwertiger Produkte bei gleichzeitiger Minimierung von Fehlern ist eine grundlegende Herausforderung. Sensordaten von Maschinen können mit LDA verwendet werden, um Muster zu identifizieren, die mit Defekten in Zusammenhang stehen. Durch die Erkennung von Unregelmäßigkeiten in Echtzeit können Hersteller sofortige Korrekturmaßnahmen ergreifen, die Produktqualität verbessern und den Ausschuss reduzieren.

Kampagnenoptimierung im Marketing

Sie können Ihr Werbebudget maximieren, indem Sie mit personalisierten Inhalten die richtige Zielgruppe ansprechen. Allerdings kann es schwierig sein, diese jeweiligen Zielgruppensegmente zu identifizieren. LDA kann diesen Prozess vereinfachen, indem es Kundenattribute und -verhalten klassifiziert und die Anpassung von Werbekampagnen verbessert. Dieser Ansatz kann zu einer höheren Kapitalrendite (ROI) und einer besseren Customer Experience führen.

AI Academy

Nutzen Sie KI für Ihren Kundenservice

Erfahren Sie, wie der Einsatz von generativer KI mit einer nahtloseren Erfahrung die Kundenzufriedenheit erhöht und die Produktivität des Unternehmens in diesen drei Schlüsselbereichen steigert: Self-Service, Servicemitarbeiter und Abläufe im Contact Center.

Lineare Diskriminanzanalyse und Python

Wenn Sie sich eingehender mit der linearen Diskriminanzanalyse mit Python befassen und die scikit-learn-Bibliothek nutzen möchten, können Sie dieses Tutorial erkunden Lernen Sie Klassifizierungsalgorithmen mit Python und scikit-learn in IBM® watsonx. Das Tutorial hilft Ihnen bei den Grundlagen der Lösung eines klassifikationsbasierten maschinellen Lernproblems mit Python und Scikit-Learn (auch bekannt als sklearn).

Für die Schritt-für-Schritt-Anleitung importieren Sie zunächst die erforderlichen Python-Bibliotheken, um mit dem Iris-Datensatz zu arbeiten, führen eine Datenvorverarbeitung durch und erstellen und bewerten Ihr LDA-Modell:

<Python code snippet>

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import sklearn
import seaborn as sns
from sklearn.preprocessing import StandardScaler, LabelEncoder
from sklearn.model_selection import train_test_split
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import accuracy_score, confusion_matrix

Wenn die Bibliotheken nicht installiert sind, können Sie dies mit pip install beheben.

Sehen Sie sich auch diese Scikit-Learn-Dokumentation an, um einen Überblick über wichtige Parameter, Attribute und allgemeine Beispiele für Python-Implementierungen mit sklearn.discriminant_analysis.LinearDiscriminantAnalysis zu erhalten.

Vor- und Nachteile der linearen Diskriminanzanalyse

Das Verständnis der Vorteile und Grenzen der linearen Diskriminanzanalyse (LDA) ist entscheidend, wenn sie auf verschiedene Klassifizierungsprobleme angewendet wird. Das Wissen um Kompromisse hilft Data Scientists und Machine-Learning-Experten, fundierte Entscheidungen über die Eignung für eine bestimmte Aufgabe zu treffen.

Wichtige Vorteile

  • Nutzen Sie Einfachheit und Effizienz der Berechnung: LDA ist ein einfacher, aber leistungsstarker Algorithmus. Er ist relativ leicht zu verstehen und zu implementieren und somit für Einsteiger in das maschinelle Lernen zugänglich. Außerdem sorgt die effiziente Berechnung für schnelle Ergebnisse.
  • Verwalten Sie hochdimensionale Daten: LDA ist effektiv, wenn die Anzahl der Merkmale größer ist als die Anzahl der Trainingsbeispiele.Daher ist LDA bei Anwendungen wie Textanalyse, Bilderkennung und Genomik wertvoll, bei denen die Daten oft hochdimensional sind.
  • Umgang mit Multikollinearität: LDA kann Multikollinearität, d. h. das Vorhandensein hoher Korrelationen zwischen verschiedenen Merkmalen, bewältigen. Sie transformiert die Daten in einen Raum mit niedrigerer Dimension, während die Informationsintegrität erhalten bleibt.

Wichtige Nachteile

- Geteilte Mittelwertverteilungen: LDA stößt auf Herausforderungen, wenn Klassenverteilungen gemeinsame Mittelwerte aufweisen. LDA bemüht sich, eine neue Achse zu schaffen, die beide Klassen linear voneinander trennt. Daher kann es sein, dass LDA nicht effektiv zwischen Klassen mit überlappenden statistischen Eigenschaften unterscheidet. Stellen Sie sich zum Beispiel ein Szenario vor, in dem zwei Blumenarten eine sehr ähnliche Blütenblattlänge und -breite haben. Für die LDA kann es schwierig sein, diese Arten allein anhand dieser Merkmale zu unterscheiden. Alternative Techniken, wie nichtlineare Diskriminanzanalysemethoden, werden hier bevorzugt.

- Nicht für Daten ohne Kennzeichnung geeignet: LDA wird als überwachter Lernalgorithmus angewendet, d. h. er klassifiziert oder trennt Daten mit Kennzeichnung. Im Gegensatz dazu ignoriert die Hauptkomponentenanalyse (PCA), eine andere Technik zur Dimensionsreduktion, die Klassenbezeichnungen und erhält die Varianz.

Weiterführende Lösungen
IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Profitieren Sie von einem einheitlichen Zugriff auf Funktionen, die den gesamten Lebenszyklus der KI-Entwicklung abdecken. Erstellen Sie leistungsstarke KI-Lösungen mit benutzerfreundlichen Oberflächen, Workflows und Zugriff auf branchenübliche APIs und SDKs.

watsonx.ai erkunden Live-Demo buchen