Maschinelles Lernen ist ein Zweig der künstlichen Intelligenz (KI) und der Informatik, der auf der Grundlage von Daten und Algorithmen den menschlichen Lernprozess imitiert und dabei seine Genauigkeit schrittweise verbessert.
IBM verfügt über langjährige Erfahrung auf dem Gebiet des maschinellen Lernens. Einer der Forscher bei IBM, Arthur Samuel, hat mit seiner Forschung (PDF, 481 KB) (Link befindet sich außerhalb von IBM) zum Damespiel den Begriff „maschinelles Lernen“ geprägt. Robert Nealey, selbsternannter Meister des Damespiels, spielte das Spiel 1962 gegen einen IBM 7094 Computer – und verlor. Im Vergleich zu dem, was heute möglich ist, erscheint diese Leistung fast trivial. Dennoch gilt sie als ein bedeutender Meilenstein im Bereich der künstlichen Intelligenz.
In den letzten Jahrzehnten haben die technologischen Fortschritte bei der Speicher- und Verarbeitungsleistung einige auf maschinellem Lernen basierende innovative Produkte hervorgebracht, wie z. B. die Empfehlungs-Engine von Netflix und selbstfahrende Autos.
Maschinelles Lernen ist ein wichtiger Bestandteil des wachsenden Feldes der Datenwissenschaft. Mithilfe statistischer Methoden werden Algorithmen geschult, um Klassifikationen oder Vorhersagen zu machen und im Rahmen von Data-Mining-Projekten wichtige Erkenntnisse zu gewinnen. Diese Erkenntnisse werden dann zur Grundlage für die Entscheidungsfindung in Anwendungen und Unternehmen und wirken sich im Idealfall auf wichtige Wachstumsmetriken aus. In dem Maße wie Big Data weiter an Bedeutung gewinnen wird, wird auch die Nachfrage nach Datenwissenschaftlern weiter steigen. Ihre Aufgabe wird es sein, die wichtigsten geschäftlichen Fragen und die zu ihrer Beantwortung erforderlichen Daten zu ermitteln.
Algorithmen für maschinelles Lernen werden in der Regel mithilfe von Frameworks erstellt, die die Entwicklung von Lösungen beschleunigen, wie z. B. TensorFlow und PyTorch.
Einfaches Trainieren, Validieren, Abstimmen und Bereitstellen von Grundlagenmodellen und Modellen für das maschinelle Lernen
Da Deep Learning und maschinelles Lernen häufig synonym verwendet werden, ist es sinnvoll, auf die Unterschiede zwischen den beiden Methoden einzugehen. Maschinelles Lernen, Deep Learning und neuronale Netze sind alle Teilfelder der künstlichen Intelligenz. Neuronale Netze wiederum sind ein Teilfeld des maschinellen Lernens, und Deep Learning ist ein Teilfeld der neuronalen Netze.
Der Unterschied zwischen Deep Learning und maschinellem Lernen liegt in der Art und Weise, wie der jeweilige Algorithmus lernt. Beim „tiefen“ maschinellen Lernen können gekennzeichnete Datensätze eingesetzt werden, um den Algorithmus zu steuern, was auch als „überwachtes Lernen“ bezeichnet wird, jedoch werden gekennzeichnete Datensätze nicht zwangsläufig benötigt. Deep Learning kann unstrukturierte Daten in ihrer Rohform (z. B. Text, Bilder) aufnehmen und automatisch die Merkmale bestimmen, die verschiedene Datenkategorien voneinander unterscheiden. Dadurch entfällt ein Teil der erforderlichen menschlichen Eingriffe und es können daher größere Datensätze verwendet werden. Man kann sich Deep Learning als „skalierbares maschinelles Lernen“ vorstellen, wie Lex Fridman in dieser MIT-Vorlesung (01:08:05) anmerkt (Link befindet sich außerhalb von IBM).
Klassisches oder „nicht tiefes“ maschinelles Lernen ist dagegen beim Lernen in höherem Maße auf manuelle Eingriffe angewiesen. Menschliche Experten bestimmen den Satz von Merkmalen, um die Unterschiede zwischen den Dateneingaben zu verstehen, was in der Regel mehr strukturierte Daten zum Lernen erfordert.
Neuronale Netze, manchmal auch als künstliche neuronale Netze (Artificial Neural Networks, ANNs) bezeichnet, bestehen aus Knotenschichten, die eine Eingabeschicht, eine oder mehrere verdeckte Schichten und eine Ausgabeschicht enthalten. Jeder Knoten, bzw. jedes künstliche Neuron, ist mit einem anderen verbunden und hat eine zugehörige Gewichtung und einen Schwellenwert. Wenn die Ausgabe eines einzelnen Knotens über dem festgelegten Schwellenwert liegt, wird dieser Knoten aktiviert und sendet Daten an die nächste Schicht des Netzes. Andernfalls werden von diesem Knoten keine Daten an die nächste Schicht des Netzes weitergegeben. Das „Deep“ in Deep Learning bezieht sich lediglich auf die Anzahl der Schichten in einem neuronalen Netz. Ein neuronales Netz, das aus mehr als drei Schichten besteht – einschließlich der Eingabe- und der Ausgabeschicht – kann als tiefer Lernalgorithmus oder als tiefes neuronales Netz angesehen werden. Bei einem neuronalen Netz mit nur drei Schichten handelt es sich lediglich um ein einfaches neuronales Netz.
Deep Learning und neuronale Netzen werden als wesentlich für die immer schnelleren Fortschritte in Bereichen wie Computer Vision, Verarbeitung natürlicher Sprache und Spracherkennung angesehen.
Lesen Sie hierzu auch den Blogbeitrag „KI, maschinelles Lernen, Deep Learning und neuronale Netze: Was ist der Unterschied?“, um mehr darüber zu erfahren, in welchem Zusammenhang die verschiedenen Konzepte stehen.
Die University of California in Berkeley (Link befindet sich außerhalb von IBM) gliedert das Lernsystem eines maschinellen Lernalgorithmus in drei wesentliche Bestandteile.
Modelle des maschinellen Lernens lassen sich in drei Hauptkategorien einteilen.
Überwachtes Lernen, auch bekannt als überwachtes maschinelles Lernen, verwendet gekennzeichnete Datensätze, um Algorithmen zu trainieren, die Daten klassifizieren oder Ergebnisse präzise vorhersagen können. Während Eingabedaten in das Modell eingespeist werden, passt das Modell seine Gewichtungen an, bis es angemessen angepasst ist. Dies geschieht im Rahmen des Kreuzvalidierungsverfahrens, um sicherzustellen, dass das Modell nicht überangepasst oder unterangepasst ist. Überwachtes Lernen hilft Unternehmen, eine Vielzahl von real vorkommenden Problemen in großem Umfang zu lösen, wie z. B. die Klassifizierung von Spam in einen separaten Ordner des Posteingangs. Zu den Methoden des überwachten Lernens gehören neuronale Netze, Naive Bayes, lineare Regression, logistische Regression, Random Forest und Support Vector Machine (SVM).
Nicht überwachtes Lernen, auch als nicht überwachtes maschinelles Lernen bezeichnet, verwendet maschinelle Lernalgorithmen, um Datensätze ohne Kennzeichnung zu analysieren und zu clustern. Diese Algorithmen entdecken versteckte Muster oder Datengruppierungen, ohne dass dabei ein manueller Eingriff erforderlich ist. Die Fähigkeit, Ähnlichkeiten und Unterschiede in Informationen zu entdecken, macht diese Methode zur idealen Lösung für explorative Datenanalysen, Cross-Selling-Strategien, Kundensegmentierung sowie Bild- und Mustererkennung. Diese Methode wird auch dazu verwendet, die Anzahl der Merkmale in einem Modell durch den Prozess der Dimensionalitätsreduktion zu reduzieren. Zwei gängige Ansätze hierfür sind die Hauptkomponentenanalyse (Principal Component Analysis, PCA) und die Einzelwertzerlegung (Singular Value Decomposition, SVD). Andere Algorithmen, die beim nicht überwachten Lernen verwendet werden, sind z. B. neuronale Netze, K-Means-Clustering, probabilistische Clustering-Methoden und mehr.
Halbüberwachtes Lernen ist der goldene Mittelweg zwischen überwachtem und nicht überwachtem Lernen. Während des Trainings wird ein kleinerer Datensatz mit Kennzeichnung verwendet, um die nachfolgende Klassifizierung und Merkmalsextraktion aus einem größeren Datensatz ohne Kennzeichnung anzuleiten. Halbüberwachtes Lernen ist daher die Lösung, wenn nicht genügend gekennzeichnete Daten für einen überwachten Lernalgorithmus zur Verfügung stehen. Außerdem bietet sich diese Methode an, wenn die Kennzeichnung einer ausreichenden Datenmenge zu kostspielig ist.
Einen detaillierteren Einblick in die Unterschiede zwischen diesen Ansätzen erhalten Sie in „Überwachtes und nicht überwachtes Lernen: Was ist der Unterschied?“.
Verstärkendes maschinelles Lernen ist ein Modell für maschinelles Lernen, das dem überwachten Lernen ähnelt, in dem jedoch der Algorithmus nicht mit Beispieldaten trainiert wird. Dieses Modell lernt allmählich, durch Ausprobieren. Eine Folge erfolgreicher Ergebnisse wird verstärkt, um so die beste Empfehlung oder Richtlinie für ein bestimmtes Problem zu entwickeln.
Das IBM Watson-System, das die Challenge Jeopardy! im Jahr 2011 gewonnen hat, ist ein gutes Beispiel dafür. Das System nutzte verstärkendes Lernen , um zu entscheiden, ob man sich an einer Antwort (oder Frage) versuchen, welches Quadrat auf der Tafel man auswählen und wie viel man wetten sollte – vor allem bei den „Daily Doubles“.
Es gibt eine Reihe von Algorithmen für maschinelles Lernen, die häufig verwendet werden. Dazu gehören:
Im Folgenden finden Sie einige wenige Beispiele für maschinelles Lernen, denen Sie jeden Tag begegnen können:
Spracherkennung: Auch als automatische Spracherkennung (Automatic Speech Recognition, ASR), Computerspracherkennung oder Sprache-zu-Text-Verarbeitung (Speech to Text) bezeichnet, beschreibt sie eine Funktion, die die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) nutzt, um menschliche Sprache in ein schriftliches Format zu übertragen. Viele mobile Geräte integrieren heute Spracherkennung in ihre Systeme, um die sprachgesteuerte Suche zu ermöglichen – z. B. Siri – oder um die Barrierefreiheit beim Versenden von Kurznachrichten zu verbessern.
Kundenservice: In der Customer Journey werden menschliche Kundendienstmitarbeiter zunehmend durch Online-Chatbots ersetzt und verändern die Art und Weise, wie wir Kundeninteraktion auf Websites und Social-Media-Plattformen wahrnehmen. Chatbots beantworten häufig gestellte Fragen (FAQs) zu Themen wie Versand oder bieten personalisierte Beratung, Cross-Selling von Produkten oder Größenvorschläge für Nutzer. Anwendungsbeispiele sind virtuelle Agenten auf E-Commerce-Websites, bei Slack und Facebook Messenger eingesetzte Messaging-Bots sowie Aufgaben, die in der Regel von virtuellen Assistenten und Sprachassistenten übernommen werden.
Computer Vision: Diese KI-Technologie ermöglicht es Computern, aus digitalen Bildern, Videos und sonstigen visuellen Signalen aussagekräftige Informationen abzuleiten und auf der Grundlage dieser Eingaben entsprechende Maßnahmen zu ergreifen. Angetrieben von neuronalen Faltungsnetzwerken findet Computer Vision Anwendung beim Tagging von Fotos in sozialen Medien, bei der radiologischen Bildgebung im Gesundheitswesen und bei selbstfahrenden Autos in der Automobilindustrie.
Empfehlungs-Engines: Anhand von Daten zum früheren Konsumverhalten können KI-Algorithmen dabei helfen, Datentrends zu erkennen, die zur Entwicklung effektiverer Cross-Selling-Strategien verwendet werden können. Diese Methode wird von Online-Händlern genutzt, um den Kunden während des Bestellvorgangs zusätzliche relevante Produktempfehlungen zu geben.
Automatisierter Aktienhandel: KI-gesteuerte Plattformen für den Hochfrequenzhandel, die zur Optimierung von Aktienportfolios entwickelt wurden, führen täglich Tausende oder sogar Millionen von Handelsvorgängen ohne menschliches Zutun aus.
Betrugserkennung: Banken und andere Finanzinstitute können maschinelles Lernen einsetzen, um verdächtige Transaktionen zu erkennen. So kann überwachtes Lernen ein Modell anhand von Informationen über bereits bekannte betrügerische Transaktionen trainieren. Mithilfe von einer Funktion für die Anomalieerkennung können dann atypische Transaktionen identifiziert und genauer untersucht werden.
Die technologischen Fortschritte im Bereich des maschinellen Lernens haben unser Leben zweifellos einfacher gemacht. Der Einsatz von maschinellem Lernen in Unternehmen hat jedoch auch eine Reihe von ethischen Bedenken in Bezug auf KI-Technologien aufgeworfen. Einige davon sind:
Während dieses Thema in der Öffentlichkeit viel Aufmerksamkeit erregt, zeigen sich viele Forscher angesichts der Vorstellung, dass KI die menschliche Intelligenz in naher Zukunft übertreffen könnte, unbesorgt. Technologische Singularität wird auch als starke KI oder Superintelligenz bezeichnet. Unter Superintelligenz versteht der Philosoph Nick Bostrum „einen Intellekt, der die besten menschlichen Gehirne in praktisch allen Bereichen, einschließlich wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialer Fähigkeiten, bei weitem übertrifft“. Obwohl die Entwicklung einer Superintelligenz in unserer Gesellschaft nicht unmittelbar bevorsteht, wirft sie im Hinblick auf den Einsatz autonomer Systeme, wie z. B. selbstfahrender Autos, einige interessante Fragen auf. Es ist unrealistisch zu glauben, dass ein selbstfahrendes Auto niemals in einen Unfall verwickelt sein wird – aber wer ist bei einem Unfall verantwortlich und haftbar? Ist es dennoch sinnvoll, vollständig autonome Fahrzeuge zu entwickeln, oder sollten wir den Einsatz dieser Technologie auf halbautonome Fahrzeuge, die einem menschlichen Fahrer lediglich sicheres Fahren ermöglichen, beschränken? Das letzte Wort zu diesem Thema ist noch lange nicht gesprochen und im Zuge der Entwicklung neuer, innovativer KI-Technologien kommen derartige ethische Debatten immer wieder auf.
In der öffentlichen Wahrnehmung der künstlichen Intelligenz geht es häufig um den Verlust von Arbeitsplätzen, aber diese Bedenken sollten besser anders formuliert werden. Mit jeder bahnbrechenden, neuen Technologie verschiebt sich die Marktnachfrage nach bestimmten Tätigkeitsbereichen. In der Automobilindustrie beispielsweise konzentrieren sich viele Hersteller, wie etwa GM, auf die Produktion von Elektrofahrzeugen, um grüne Initiativen zu unterstützen. Die Energiewirtschaft löst sich dadurch jedoch nicht einfach in Luft auf. Es findet lediglich eine Umstellung von brennstoff- zu elektrobasierten Technologien statt.
Gleichermaßen wird künstliche Intelligenz die Arbeitsplatznachfrage in andere Bereiche verlagern. Die Nachfrage nach Personal für das Management von KI-Systemen wird zweifellos steigen. In den Branchen, die am ehesten von der Verlagerung der Arbeitsplatznachfrage betroffen sein werden, wie z. B. dem Kundendienst, wird auch weiterhin Personal benötigt werden, um komplexere Kundenprobleme zu lösen. Die größte Herausforderung im Zusammenhang mit künstlicher Intelligenz und ihren Auswirkungen auf den Arbeitsmarkt wird darin bestehen, die Menschen beim Umstieg auf neue, gefragte Tätigkeiten zu unterstützen.
Der Schutz der Privatsphäre wird häufig im Zusammenhang mit Datenschutz und Datensicherheit diskutiert. Diese Belange haben dazu geführt, dass politische Entscheidungsträger in den letzten Jahren weitere Schritte zum Schutz der Privatsphäre unternommen haben. So wurde beispielsweise 2016 die DSGVO-Gesetzgebung geschaffen, um die personenbezogenen Daten von Personen in der Europäischen Union und dem Europäischen Wirtschaftsraum zu schützen und dem Einzelnen mehr Kontrolle über seine Daten zu geben. In den Vereinigten Staaten haben einzelne Bundesstaaten Richtlinien entwickelt, wie z. B. das 2018 in Kalifornien eingeführte Gesetz zum Schutz der Privatsphäre von Verbrauchern (California Consumer Privacy Act, CCPA), das Unternehmen dazu verpflichtet, Verbraucher über die Sammlung ihrer Daten zu informieren. Dieses und ähnliche Gesetze haben Unternehmen dazu gezwungen, die Art und Weise, wie sie personenbezogene Daten speichern und verwenden, neu zu überdenken. Infolgedessen haben Investitionen in die Sicherheit für Unternehmen zunehmend Priorität, da Unternehmen natürlich bestrebt sind, Schwachstellen und Möglichkeiten für Überwachung, Hackerangriffe und Cyberattacken zu beseitigen.
Fälle von Vorurteilen und Diskriminierung bei einer Reihe von intelligenten Systemen haben viele ethische Fragen in Bezug auf den Einsatz von künstlicher Intelligenz aufgeworfen. Wie können wir uns gegen Vorurteile und Diskriminierung schützen, wenn die Trainingsdaten selbst unter Umständen durch mit Vorurteilen behaftete menschliche Prozesse erzeugt werden? Auch wenn Unternehmen mit ihren Automatisierungsbemühungen in der Regel gute Absichten verfolgen, weist Reuters (Link befindet sich außerhalb von IBM) auf einige der unvorhergesehenen Folgen der Nutzung von KI im Einstellungsprozess hin. In seinem Bemühen, einen Prozess zu automatisieren und zu vereinfachen, diskriminierte Amazon unbeabsichtigt Bewerber für technische Positionen aufgrund ihres Geschlechts und musste das Projekt schließlich aufgeben. Die Harvard Business Review (Link befindet sich außerhalb von IBM) hat weitere wichtige Fragen zum Einsatz von KI im Einstellungsverfahren aufgeworfen, z. B. welche Daten ein Unternehmen bei der Bewertung eines Bewerbers für eine Stelle verwenden können sollte.
Vorurteile und Diskriminierung sind außerdem nicht nur auf den Personalbereich beschränkt, sondern können in zahlreichen anderen Anwendungen auftreten, von Gesichtserkennungssoftware bis hin zu Algorithmen für soziale Medien.
In dem Maße, in dem sich Unternehmen der Risiken von KI bewusster werden, beteiligen sie sich auch aktiver an der Diskussion um Ethik und Werte von KI. So hat IBM beispielsweise seine Produkte für die allgemeine Gesichtserkennung und -analyse eingestellt. Dazu äußerte sich IBM CEO Arvind Krishna wie folgt: „IBM lehnt die Verwendung jeglicher Technologie, einschließlich der von anderen Anbietern angebotenen Gesichtserkennungstechnologie, für die Massenüberwachung, die Profilerstellung nach ethnischen Gesichtspunkten, die Verletzung grundlegender Menschenrechte und Freiheiten oder für andere Zwecke, die nicht mit unseren Werten und Grundsätzen des Vertrauens und der Transparenz vereinbar sind, entschieden ab und wird diese auch nicht dulden.“
Da keine einschlägigen Gesetze zur Regulierung von KI-Praktiken existieren, fehlt es auch an einem wirksamen Durchsetzungsmechanismus, der eine ethische Nutzung von KI in der Praxis sicherstellt. Gegenwärtig beschränken sich die Anreize für Unternehmen, sich an Prinzipien der ethischen KI-Nutzung zu halten, auf die Vermeidung möglicher negativer Auswirkungen einer unethischen KI-Gestaltung auf das Geschäftsergebnis. Um diese Lücke zu schließen, sind in Zusammenarbeit von Ethikern und Forschern ethische Rahmenwerke entstanden, die die Entwicklung und Verbreitung von KI-Modellen in unserer Gesellschaft regeln sollen. Momentan stellen diese jedoch lediglich eine Orientierungshilfe dar. Einige Forschungsarbeiten (Link befindet sich außerhalb von IBM) (PDF, 1 MB) haben gezeigt, dass die Kombination von verteilter Verantwortung und mangelnder Voraussicht möglicher Folgen nicht dazu geeignet ist, Schaden von der Gesellschaft abzuwenden.
Entwickeln Sie komplexe neuronale Netze. Experimentieren Sie bei entsprechender Skalierung und stellen Sie optimierte Lernmodelle in IBM Watson Studio bereit.
Analysieren Sie Daten und erstellen Sie Analysemodelle, um zukünftige Ergebnisse vorherzusagen. Erkennen Sie Chancen und Risiken für Ihr Unternehmen.
NLP (Natural Language Processing, Verarbeitung natürlicher Sprache) ist KI, die die Sprache Ihrer Branche spricht. Nutzen Sie IBM Watson Discovery und entwickeln Sie Lösungen, die innerhalb von drei Jahren einen ROI von 383 % erzielen.