Was ist Merkmalsextraktion?

Autoren

Vanna Winland

AI Advocate & Technology Writer

Was ist Merkmalsextraktion?

Die Merkmalsextraktion ist eine Technik, die die Dimensionalität oder Komplexität von Daten reduziert, um die Leistung und Effizienz von Algorithmen für maschinelles Lernen (ML) zu verbessern. Dieser Prozess erleichtert ML-Aufgaben und verbessert die Datenanalyse, indem er den Datensatz so vereinfacht, dass er nur die wesentlichen Variablen oder Attribute enthält. 

Die Leistung eines künstlichen Intelligenzmodells (KI) hängt von der Qualität seiner Trainingsdaten ab. Modelle für maschinelles Lernen werden vorverarbeitet, um sicherzustellen, dass die Daten in einem geeigneten Format für ein effizientes Modelltraining und eine effiziente Modellleistung vorliegen. Die Merkmalsextraktion ist ein wichtiger Bestandteil des Workflows.

Während des Extraktionsprozesses werden unstrukturierte Daten in ein besser strukturiertes und verwendbares Format umgewandelt, um die Datenqualität und die Interpretierbarkeit des Modells zu verbessern. Die Merkmalsextraktion ist ein Teilbereich des Feature Engineerings, der umfassendere Prozess der Erstellung, Änderung und Auswahl von Merkmalen innerhalb von Rohdaten zur Optimierung der Modellleistung.  

Seit der frühen Forschung im Bereich der Mustererkennung wurden neue Methoden und Techniken untersucht, um mithilfe einer heuristischen Methode die relevantesten Merkmale eines Datensatzes mithilfe von KI zu extrahieren.1 Im weiteren Verlauf der Forschung wurden Autoencoder traditionell zur Dimensionsreduzierung beim Erlernen von Merkmalen verwendet.2

Es ist schwierig, mit Daten zu arbeiten, wenn die Anzahl der Merkmalen oder Kovariaten die Anzahl der unabhängigen Datenpunkte übersteigt. Diese Arten von Daten werden als hochdimensionale Daten betrachtet.3 Die Merkmalsextraktion kann als eine Technik zur Dimensionalitätsreduzierung betrachtet werden.4

Dies ist von entscheidender Bedeutung, wenn Sie mit großen Datensätzen oder Datensätzen aus mehreren Modalitäten arbeiten. Je mehr extrahierte Merkmale das Modell verwalten muss, desto weniger kompetent und leistungsfähig ist es.5 Zu den üblichen Aufgaben, die auf einer effizienten Merkmalsextraktion beruhen, gehören Bildverarbeitung, Verarbeitung natürlicher Sprache (NLP) sowie Signalverarbeitung. 

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Wie funktioniert die Merkmalsextraktion?

Die Dimensionalitätsreduzierung ist eine Technik aus dem Bereich der Data Science, die in der Vorverarbeitungsphase des maschinellen Lernens verwendet wird.6 Während dieses Prozesses werden irrelevante und redundante Daten entfernt, während die relevanten Informationen des ursprünglichen Datensatzes beibehalten werden.

Merkmale können als die Attribute eines Datenobjekts betrachtet werden. In einem Datensatz mit Tieren würden Sie beispielsweise einige numerische Merkmale (Alter, Größe, Gewicht) und kategorische Merkmale (Farbe, Art, Rasse) erwarten. Die Merkmalsextraktion ist Teil der neuronalen Netzarchitektur des Modells, z. B. eines Convolutional Neural Network (CNN).

Zunächst nimmt das Modell die Eingabe auf. Anschließend wandelt der Merkmalsextraktor die Daten in eine numerische Darstellung um, die zur Berechnung der Methoden zur Dimensionalitätsreduzierung für die Merkmalsextraktion verwendet werden kann. Diese Repräsentationen werden in Merkmalsvektoren gespeichert, damit das Modell Algorithmen zur Datenreduktion ausführen kann. 

Nach der Extraktion ist es manchmal erforderlich, die Daten mithilfe der Merkmalsnormierung zu standardisieren, insbesondere bei Verwendung bestimmter Algorithmen, die empfindlich auf die Größe und den Umfang der Variablen reagieren (gradientbasierte Abstiegsalgorithmen, K-Means-Cluster).

Je nach Aufgabenstellung können unterschiedliche Methoden eingesetzt werden, um bestimmte Ergebnisse zu erzielen. Alle Methoden zielen darauf ab, die Daten zu vereinfachen und gleichzeitig die wertvollsten Informationen zu erhalten.

Die meisten modernen KI-Modelle führen eine automatische Merkmalsextraktion durch, aber es ist dennoch nützlich, die verschiedenen Möglichkeiten des Umgangs zu verstehen. Hier sind einige gängige Methoden zur Merkmalsextraktion, die für die Dimension verwendet werden:

Analyse der Hauptkomponenten (PCA): Diese Technik reduziert die Anzahl der Merkmale in großen Datensätzen auf Hauptkomponenten oder neue Merkmale, die vom Klassifikator des Modells für seine spezifischen Aufgaben verwendet werden.

PCA ist so beliebt, weil es Originaldaten erstellen kann, die nicht korreliert sind. Das bedeutet, dass die neuen Dimensionen, die durch die PCA erstellt werden, unabhängig voneinander sind.7 Dies macht die PCA zu einer effizienten Lösung für Overfitting aufgrund der fehlenden Datenredundanz, da jedes Merkmal einzigartig ist.   

Lineare Diskriminanzanalyse (LDA): Diese Technik wird häufig im überwachten maschinellen Lernen eingesetzt, um mehrere Klassen und Merkmale zu trennen und so Klassifizierungsprobleme zu lösen.

Diese Technik wird häufig zur Optimierung von Modellen für maschinelles Lernen verwendet. Die neuen Datenpunkte werden mithilfe der Bayes'schen Statistik klassifiziert, um die Datenverteilung für jede Klasse zu modellieren. 

Verteilte stochastische Nachbar-Einbettung (t-SNE): Diese Technik des maschinellen Lernens wird häufig auf Aufgaben wie die Visualisierung von Funktionen im Deep Learning angewendet.8 Dies ist besonders nützlich, wenn es darum geht, Visualisierungen von hochdimensionalen Daten in 2D oder 3D zu rendern.

Sie wird häufig zur Analyse von Mustern und Beziehungen in der Data Science verwendet. Aufgrund ihrer nichtlinearen Natur ist t-SNE rechenintensiv und wird üblicherweise nur für Visualisierungsaufgaben verwendet.

Term Frequency-inverse Document Frequency (TF-IDF): Diese statistische Methode bewertet die Bedeutung von Wörtern anhand ihrer Häufigkeit. Die Begriffshäufigkeit in einem bestimmten Dokument wird damit gewichtet, wie häufig dieser in allen Dokumenten innerhalb einer Sammlung oder eines Korpus vorkommt.9 

Diese Technik wird im NLP häufig zur Klassifizierung, bei Clustern und Informationsabfragen verwendet. Bag of Words (BoW) ist eine ähnliche Technik, aber anstatt die Relevanz des Begriffs zu berücksichtigen, werden alle Wörter gleich behandelt. 

Mixture of Experts | 12. Dezember, Folge 85

KI entschlüsseln: Wöchentlicher Nachrichtenüberblick

Schließen Sie sich unserer erstklassigen Expertenrunde aus Ingenieuren, Forschern, Produktführern und anderen an, die sich durch das KI-Rauschen kämpfen, um Ihnen die neuesten KI-Nachrichten und Erkenntnisse zu liefern.

Anwendungsfälle

Bildverarbeitung und Computer Vision: Der Prozess zur Merkmalsextraktion identifiziert und extrahiert die wichtigsten Merkmale aus Bildern und Videos. Rohe Bilddaten (Pixel) werden in Merkmale umgewandelt, sodass die Maschine Algorithmen anwenden kann, um einen neuen Satz von Merkmalen zu extrahieren und zu klassifizieren. Zum Beispiel ist das Histogram of Oriented Gradients (HOG) ein Algorithmus zur Merkmalsextraktion, der zur Erkennung verwendet wird.

Verarbeitung natürlicher Sprache: Die Merkmalsextraktion konvertiert Rohtextdaten in eine Formatstruktur, die das maschinelles Lernmodell verarbeiten kann. Dies ist nützlich für Aufgaben wie Klassifizierung, Stimmungsanalyse oder Named Entity Recognition (NER). Diese Technik lässt sich branchenübergreifend in Chat-Schnittstellen und sogar in der Verhaltensgesundheit einsetzen. Die Forschungsergebnisse legen nahe, dass die Merkmalsextraktion bei der multimodalen Emotionserkennung hilft, um den Verhaltenszustand von Patienten zu überwachen.10

Signalverarbeitung: Mit dieser Technik werden aussagekräftige Informationen aus Rohsignaldaten (Audio, Bilder oder sogar Zeitreihendaten) analysiert und extrahiert, um Aufgaben wie Klassifizierung, Erkennung oder Vorhersage zu erleichtern. Während die Signalverarbeitung traditionell mit Bereichen wie Spracherkennung, Audioverarbeitung und Bildanalyse in Verbindung gebracht wird, kann sie auch in vielen anderen Bereichen eingesetzt werden. So werden beispielsweise im medizinischen Kontext psychologische Signale wie EKG-Messwerte genutzt, um Trends zu erkennen.11

Weitere Lösungen
IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Profitieren Sie von einem einheitlichen Zugriff auf Funktionen, die den gesamten Lebenszyklus der KI-Entwicklung abdecken. Erstellen Sie leistungsstarke KI-Lösungen mit benutzerfreundlichen Oberflächen, Workflows und Zugriff auf branchenübliche APIs und SDKs.

watsonx.ai erkunden Live-Demo buchen
Fußnoten

1 Minsky, Marvin. "Steps toward artificial intelligence." Proceedings of the IRE 49, no. 1 (1961): 8-30. https://rodsmith.nz/wp-content/uploads/Msky-steps-towards-artificial-intelligence-1.pdf.

2 Ian Goodfellow, Yoshua Bengio und Aaron Courville. Deep Learning (Cambridge, MA: MIT Press, 2016).  https://www.deeplearningbook.org/contents/autoencoders.html.

3 Narisetty, Naveen Naidu. "Bayesian model selection for high-dimensional data." In Handbook of statistics, vol. 43, S. 207-248. Elsevier, 2020. https://www.sciencedirect.com/science/article/abs/pii/S0169716119300380.  

4 de-la-Bandera, Isabel, David Palacios, Jessica Mendoza und Raquel Barco. "Feature extraction for dimensionality reduction in cellular networks performance analysis." Sensors 20, no. 23 (2020): 6944. https://pmc.ncbi.nlm.nih.gov/articles/PMC7730729.

5 https://www.sciencedirect.com/topics/computer-science/feature-extraction.

6 Khalid, Samina, Tehmina Khalil und Shamila Nasreen. "A survey of feature selection and feature extraction techniques in machine learning." In 2014 science and information conference, S. 372-378. IEEE, 2014. https://ieeexplore.ieee.org/abstract/document/6918213.  

7 Kuhn, Max und Kjell Johnson. Applied predictive modeling. Vol. 26. New York: Springer, 2013.  

8 Zhou, Yuansheng und Tatyana O. Sharpee. "Using global t-SNE to preserve intercluster data structure." Neural Computation 34, Nr. 8 (2022): 1637-1651. https://pmc.ncbi.nlm.nih.gov/articles/PMC10010455/.  

9 Sammut, Claude und Geoffrey I. Webb, Hrsg. Encyclopedia of machine learning. Springer Science & Business Media, 2011.  

10 Minsky, Marvin. "Steps toward artificial intelligence." Proceedings of the IR 49, No. 1 (1961): 8 30. https://www.sciencedirect.com/science/article/abs/pii/S1566253523005341.  

11 Geetha, A. V., T. Mala, D. Priyanka und E. Uma. "Multimodal emotion recognition with deep learning: advancements, challenges, and future directions." Information Fusion 105 (2024): 102218. https://www.sciencedirect.com/science/article/abs/pii/S1566253523005341.