Was ist künstliche Intelligenz (KI)?
Entdecken Sie die KI-Lösungen von IBM Abonnieren Sie KI-Updates
Darstellung, wie KI es Computern ermöglicht, wie Menschen zu denken, vernetzte Anwendungen zu entwickeln und das moderne Leben zu beeinflussen
Was ist KI? 

Künstliche Intelligenz oder KI ist eine Technologie, die es Computern und Maschinen ermöglicht, menschliche Intelligenz und Problemlösungsfähigkeiten zu simulieren.

Alleine oder in Kombination mit anderen Technologien (z. B. Sensoren, Geolokalisierung, Robotertechnik) kann KI Aufgaben übernehmen, die sonst menschliche Intelligenz oder Intervention erfordern würden. Digitale Assistenten, GPS-Navigation, autonome Fahrzeuge und generative KI-Tools (wie Chat GPT von Open AI) sind nur einige Beispiele für KI in den täglichen Nachrichten und unserem täglichen Leben.

Als Teilgebiet der Informatik umfasst künstliche Intelligenz maschinelles Lernen und Deep Learning (und wird oft zusammen mit diesen genannt). In diesen Disziplinen geht es um die Entwicklung von KI-Algorithmen, die den Entscheidungsprozessen des menschlichen Gehirns nachempfunden sind. Sie können aus den verfügbaren Daten „lernen“ und im Laufe der Zeit immer genauere Klassifizierungen oder Vorhersagen treffen.

Die künstliche Intelligenz hat viele Hype-Zyklen durchlaufen, aber selbst für Skeptiker scheint die Veröffentlichung von ChatGPT einen Wendepunkt zu markieren. Das letzte Mal, als die generative KI eine so große Rolle spielte, waren die Durchbrüche im Bereich Computer Vision zu verzeichnen, aber jetzt liegt der Sprung nach vorne in der Verarbeitung natürlicher Sprache (NLP). Heute kann generative KI nicht nur menschliche Sprache erlernen und synthetisieren, sondern auch andere Datentypen wie Bilder, Videos, Softwarecode und sogar molekulare Strukturen.

Die Zahl der Anwendungen für KI nimmt täglich zu. Aber in dem Maße, wie der Hype um den Einsatz von KI-Tools in der Wirtschaft zunimmt, gewinnen Gespräche über KI-Ethik und verantwortungsvolle KI entscheidend an Bedeutung. Weitere Informationen darüber, wie IBM zu diesen Themen steht, finden Sie unter Vertrauen in KI aufbauen.

Warum KI-Governance eine geschäftliche Notwendigkeit für die Skalierung von KI in Unternehmen ist

Erfahren Sie mehr über die Hindernisse bei der Einführung von KI, insbesondere über das Fehlen von Lösungen für KI-Governance und -Risikomanagement.

Ähnliche Inhalte

Registrieren Sie sich, um den Leitfaden zu Foundation Models zu lesen

Typen künstlicher Intelligenz: schwache KI vs. starke KI

Schwache KI – auf Englisch auch „Narrow AI“ (schmale KI) oder „Artificial Narrow Intelligence“ (ANI) genannt – ist KI, die darauf trainiert und fokussiert ist, bestimmte Aufgaben auszuführen. Schwache KI treibt den größten Teil der KI an, die uns heute umgibt. „Schmal“ (Narrow) wäre vielleicht eine genauere Beschreibung für diese Art von KI, denn sie ist alles andere als schwach; sie unterstützt einige sehr leistungsfähige Anwendungen, wie Siri von Apple, Alexa von Amazon, IBM® watsonx und autonome Fahrzeuge.

Starke KI besteht aus künstlicher allgemeiner Intelligenz (Artificial General Intelligence, AGI) und künstlicher Superintelligenz (Artificial Super Intelligence, ASI). AGI oder allgemeine KI ist eine theoretische Form der KI, bei der eine Maschine über eine dem Menschen gleichwertige Intelligenz verfügen würde. Sie wäre selbstbewusst und hätte ein Bewusstsein, das in der Lage wäre, Probleme zu lösen, zu lernen und für die Zukunft zu planen. ASI – auch bekannt als Superintelligenz – würde die Intelligenz und Fähigkeiten des menschlichen Gehirns übertreffen. Auch wenn starke KI heute noch völlig theoretisch ist und es keine praktischen Beispiele gibt, bedeutet das jedoch nicht, dass KI-Forschende ihre Entwicklung nicht auch untersuchen. In der Zwischenzeit sind die besten Beispiele für künstliche Superintelligenz vielleicht aus der Science-Fiction, wie HAL, der übermenschliche, skrupellose Computer in 2001: Odyssee im Weltraum.

Deep Learning vs. maschinelles Lernen

Maschinelles Lernen und Deep Learning sind Teildisziplinen der KI, und Deep Learning ist eine Teildisziplin des maschinellen Lernens.

Sowohl Algorithmen für maschinelles Lernen als auch Deep-Learning-Algorithmen nutzen neuronale Netzwerke, um aus riesigen Datenmengen zu lernen. Diese neuronalen Netze sind programmatische Strukturen, die den Entscheidungsprozessen des menschlichen Gehirns nachempfunden sind. Sie bestehen aus Schichten miteinander verbundener Knoten, die Merkmale aus den Daten extrahieren und Vorhersagen darüber treffen, was die Daten darstellen.

Maschinelles Lernen und Deep Learning unterscheiden sich in der Art der neuronalen Netze, die sie verwenden, und dem Umfang menschlicher Eingriffe. Klassische Algorithmen des maschinellen Lernens verwenden neuronale Netze mit einer Eingabeschicht, einer oder zwei „versteckten“ Schichten und einer Ausgabeschicht. In der Regel sind diese Algorithmen auf überwachtes Lernen beschränkt: Die Daten müssen von menschlichen Experten strukturiert oder beschriftet werden, damit der Algorithmus Merkmale aus den Daten extrahieren kann.

Deep-Learning-Algorithmen verwenden tiefe neuronale Netze – Netze, die aus einer Eingabeschicht, drei oder mehr (in der Regel jedoch Hunderten) versteckten Schichten und einer Ausgabestruktur bestehen. Diese mehreren Ebenen ermöglichen unüberwachtes Lernen: Sie automatisieren die Extraktion von Merkmalen aus großen, nicht beschrifteten und unstrukturierten Datensätzen. Da kein menschliches Eingreifen erforderlich ist, ermöglicht Deep Learning im Wesentlichen maschinelles Lernen im großen Maßstab.

 

Der Aufstieg generativer Modelle

Generative KI bezieht sich auf Deep-Learning-Modelle, die aus Rohdaten – z. B. der gesamten Wikipedia oder den gesammelten Werken Rembrandts – „lernen“ können, statistisch wahrscheinliche Ergebnisse zu erzeugen, wenn sie dazu aufgefordert werden. Auf hoher Ebene kodieren generative Modelle eine vereinfachte Darstellungen ihrer Trainingsdaten und erstellen daraus ein neues Werk, das ähnlich ist, aber nicht identisch mit den ursprünglichen Daten.

Generative Modelle werden seit Jahren in Statistiken zur Analyse numerischer Daten verwendet. Das Aufkommen von Deep Learning ermöglichte es jedoch, sie auf Bilder, Sprache und andere komplexe Datentypen auszudehnen. Zu den ersten KI-Modellen, die diese überschneidende Leistung vollbrachten, gehörten Variational Autoencoder (VAEs), die 2013 eingeführt wurden. VAEs waren die ersten Deep-Learning-Modelle, die in großem Umfang zur Erzeugung realistischer Bilder und Sprache eingesetzt wurden.

„VAEs haben der tiefen generativen Modellierung Tür und Tor geöffnet, indem sie die Skalierung der Modelle erleichtert haben“, sagte Akash Srivastava, Experte für generative KI am MIT-IBM Watson AI Lab. „Vieles von dem, was wir heute als generative KI bezeichnen, hat hier seinen Anfang genommen.“

Frühe Beispiele für Modelle wie GPT-3, BERT oder DALL-E 2 haben gezeigt, was möglich ist. Künftig werden Modelle auf einem breiten Satz von unbeschrifteten Daten trainiert, die mit minimaler Feinabstimmung für verschiedene Aufgaben verwendet werden können. Systeme, die spezifische Aufgaben in einer einzelnen Domäne ausführen, weichen einer umfassenden KI, die allgemeiner lernt und bereichs- und problemübergreifend arbeitet. Diesen Wandel treiben Foundation Models, die auf großen, unbeschrifteten Datensätzen trainiert und auf eine Reihe von Anwendungen abgestimmt werden, voran.

Was die Zukunft der KI betrifft, so wird vorausgesagt, dass die generative KI mit Hilfe von Foundation Models die Einführung von KI in Unternehmen dramatisch beschleunigen wird. Die Verringerung der Kennzeichnungsanforderungen wird den Einstieg für Unternehmen wesentlich erleichtern, und die hochpräzise, effiziente KI-gestützte Automatisierung, die sie ermöglichen, wird bedeuten, dass weitaus mehr Unternehmen in der Lage sein werden, KI in einem breiteren Spektrum geschäftskritischen Situationen einzusetzen. Für IBM besteht die Hoffnung darin, dass die Rechenleistung von Foundation Models irgendwann jedem Unternehmen in einer reibungslosen Hybrid-Cloud-Umgebung zur Verfügung gestellt werden kann.

Basismodelle in watsonx.ai erkunden

Anwendungen für künstliche Intelligenz

Es gibt heute zahlreiche Anwendungen für KI-Systeme in der realen Welt. Nachfolgend finden Sie einige der häufigsten Anwendungsfälle:

Spracherkennung

Die Spracherkennung, auch bekannt als automatische Spracherkennung (Automatic Speech Recognition, ASR), Computer-Spracherkennung oder Speech to Text, verwendet NLP, um menschliche Sprache in ein schriftliches Format zu übertragen. Viele Mobilgeräte integrieren die Spracherkennung in ihre Systeme, um eine Sprachsuche durchzuführen – zum Beispiel Siri – oder bieten mehr Barrierefreiheit beim Versenden von Textnachrichten auf Englisch oder vielen anderen gängigen Sprachen. Erfahren Sie anhand unserer Fallstudie, wie Don Johnston IBM Watson Text to Speech einsetzte, um die Barrierefreiheit im Unterricht zu verbessern.

Kundendienst

Virtuelle Online-Agenten und Chatbots ersetzen menschliche Agenten auf der Customer Journey. Sie beantworten häufig gestellte Fragen (FAQ) zu Themen wie dem Versand oder bieten persönliche Beratung an, verkaufen Produkte oder schlagen Kleidergrößen vor. Damit verändert sich die Art und Weise, wie wir über Kundenbindung über Websites und Social-Media-Plattformen hinweg nachdenken. Beispiele hierfür sind Nachrichtenbots auf E-Commerce-Websites mit virtuellen Agenten, Nachrichten-Apps wie Slack und Facebook Messenger sowie Aufgaben, die üblicherweise von virtuellen Assistenten und Sprachassistenten übernommen werden. Sehen Sie in unserer Fallstudie, wie Autodesk Inc. IBM watsonx Assistant nutzte, um die Reaktionszeiten gegenüber Kunden um 99 % zu beschleunigen.

Computervision

Diese KI-Technologie ermöglicht es Computern und Systemen, aus digitalen Bildern, Videos und anderen visuellen Eingaben aussagekräftige Informationen abzuleiten und auf der Grundlage dieser Eingaben Maßnahmen zu ergreifen. Durch diese Fähigkeit, Empfehlungen zu geben, unterscheidet sie sich von Bilderkennungsaufgaben. Auf der Grundlage von Convolutional Neural Network findet die Computer Vision Anwendung bei Foto-Tagging in sozialen Medien, radiologischen bildgebenden Verfahren im Gesundheitswesen und selbstfahrenden Autos in der Automobilbranche. Erfahren Sie anhand unserer Fallstudie, wie ProMare mit IBM Maximo neue Weichen für die Meeresforschung gestellt hat.

Lieferketten

Adaptive Robotertechnik nutzt Geräteinformationen des Internets der Dinge (IoT) sowie strukturierte und unstrukturierte Daten, um autonome Entscheidungen zu treffen. NLP-Tools können menschliche Sprache verstehen und auf das reagieren, was ihnen gesagt wird. Prädiktive Analysen werden für die Reaktion auf die Nachfrage, die Bestands- und Netzwerkoptimierung, die vorbeugende Wartung und die digitale Fertigung eingesetzt. Such- und Mustererkennungsalgorithmen – die nicht mehr nur prädiktiv, sondern hierarchisch sind – analysieren Echtzeitdaten und helfen den Lieferketten, auf maschinell erzeugte, erweiterte Intelligenz zu reagieren und gleichzeitig sofortige Sichtbarkeit und Transparenz zu bieten. Erfahren Sie in unserer Fallstudie, wie Hendrickson IBM Sterling nutzte, um Echtzeit-Transaktionen zu ermöglichen.

Wettervorhersage

Die Wettermodelle, auf die sich die Sender verlassen, um genaue Vorhersagen zu machen, bestehen aus komplexen Algorithmen, die auf Supercomputern laufen. Techniken des maschinellen Lernens verbessern diese Modelle, indem sie sie anwendbarer und präziser machen. Sehen Sie in unserer Fallstudie, wie Emnotion die IBM Cloud nutzte, um wetterabhängigen Unternehmen die Möglichkeit zu geben, proaktive, datengestützte Entscheidungen zu treffen.

Anomalieerkennung

KI-Modelle können große Datenmengen durchsuchen und atypische Datenpunkte innerhalb eines Datensatzes aufspüren. Diese Anomalien können das Bewusstsein für fehlerhafte Geräte, menschliches Versagen oder Verstöße gegen die Cybersicherheit schärfen. Erfahren Sie in unserer Fallstudie, wie Netox IBM QRadar verwendet hat, um digitale Unternehmen vor Cyberbedrohungen zu schützen.

Geschichte der künstlichen Intelligenz: Wichtige Daten und Namen

Die Idee einer „Maschine, die denkt“ geht auf das antike Griechenland zurück. Aber seit dem Aufkommen der elektronischen Datenverarbeitung (und in Bezug auf einige der in diesem Artikel behandelten Themen) kam es in der Entwicklung der künstlichen Intelligenz zu folgenden wichtigen Ereignissen und Meilensteinen:

  • 1950: Alan Turing veröffentlicht Computing Machinery and Intelligence (Link befindet sich außerhalb von ibm.com)In diesem Artikel stellt Turing – berühmt für die Entschlüsselung des deutschen ENIGMA-Codes während des Zweiten Weltkriegs und oft als „Vater der Informatik“ bezeichnet – die folgende Frage: „Können Maschinen denken?“  Basierend auf dieser Frage bietet er einen Test an, der heute als „Turing-Test“ bekannt ist und bei dem ein menschlicher Befrager versucht, zwischen einer Computer- und einer menschlichen Textantwort zu unterscheiden. Obwohl dieser Test seit seiner Veröffentlichung stark hinterfragt wurde, ist er nach wie vor ein wichtiger Teil der Geschichte der KI und ein aktuelles Konzept innerhalb der Philosophie, da er Ideen aus der Linguistik nutzt.
  • 1956: John McCarthy prägt auf der allerersten KI-Konferenz am Dartmouth College den Begriff „künstliche Intelligenz“. (McCarthy erfand später die Sprache LISP.) Später im selben Jahr entwickeln Allen Newell, J.C. Shaw und Herbert Simon den Logic Theorist, das allererste laufende KI-Softwareprogramm.
  • 1967: Frank Rosenblatt baut den Mark 1 Perceptron, den ersten Computer, der auf einem neuronalen Netzwerk basiert und durch Versuch und Irrtum „gelernt“ hat. Nur ein Jahr später veröffentlichen Marvin Minsky und Seymour Papert ein Buch mit dem Titel Perceptrons, das sowohl zum Meilenstein der neuronalen Netze als auch, zumindest für eine Weile, zum Argument gegen künftige Forschungsprojekte zu neuronalen Netzen wird.
  • 1980s: Neuronale Netze, die einen Backpropagation-Algorithmus verwenden, um sich selbst zu trainieren, werden in KI-Anwendungen weithin eingesetzt.
  • 1995: Stuart Russell und Peter Norvig veröffentlichen Artificial Intelligence: A Modern Approach (Link befindet sich außerhalb von ibm.com), das zu einem der führenden Lehrbücher für das Studium der KI wird. Darin befassen sie sich mit vier möglichen Zielen oder Definitionen von KI, die Computersysteme anhand von Rationalität und Denken vs. Handeln unterscheiden.

  • 1997: Deep Blue von IBM schlägt den damaligen Schachweltmeister Garry Kasparov in einem Schachmatch (und Rematch).

  • 2004: John McCarthy schreibt einen Aufsatz mit dem Titel What Is Artificial Intelligence? (Link befindet sich außerhalb von ibm.com), und schlägt eine oft zitierte Definition von KI vor.
  • 2011: IBM watsonx schlägt Champions Ken Jennings und Brad Rutter bei Jeopardy!
  • 2015: Der Supercomputer Minwa von Baidu verwendet eine spezielle Art von tiefem neuronalem Netz, ein sogenanntes Convolutional Neural Network, um Bilder mit einer höheren Genauigkeit zu identifizieren und zu kategorisieren als der durchschnittliche Mensch.
  • 2016: Das Programm AlphaGo von DeepMind, das von einem tiefen neuronalen Netz angetrieben wird, besiegt Lee Sodol, den Go-Weltmeister, in einem Fünf-Spiele-Match. Der Sieg ist bedeutsam angesichts der enormen Anzahl möglicher Züge im Verlauf des Spiels (über 14,5 Billionen nach nur vier Zügen!). Später kaufte Google DeepMind für angeblich 400 Millionen US-Dollar.
  • 2023: Die Zunahme großer Sprachmodelle, oder Large Language Models (LLMs), wie ChatGPT führt zu enormen Veränderungen in der Leistung von KI und ihrem Potenzial, den Unternehmenswert zu steigern. Mit diesen neuen generativen KI-Praktiken können Deep-Learning-Modelle vorab mit riesigen Mengen an unbeschrifteten Rohdaten trainiert werden.

 

Weiterführende Lösungen
Lösungen im Bereich Künstliche Intelligenz (KI)

Setzen Sie KI in Ihrem Unternehmen ein – mit dem branchenführenden Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
KI für die Cybersicherheit

KI sorgt im Bereich Cybersicherheit für große Veränderungen. Mithilfe der Analyse enormer Mengen an Risikodaten können Reaktionszeiten verkürzt und unterbesetzte Sicherheitsabteilungen unterstützt werden.

KI für Cybersicherheit erkunden
Ressourcen So wählen Sie das richtige Foundation Model für die KI

Erfahren Sie, wie Sie mithilfe des Modellauswahl-Frameworks das Foundation Model für Ihre Geschäftsanforderungen auswählen.

Sparen Sie bis zu 70 % mit unserem digitalen Lernabonnement

Greifen Sie auf unseren vollständigen Katalog mit über 100 Online-Kursen zu, indem Sie noch heute ein Abonnement für Einzel- oder Mehrbenutzer-Digitalkurse erwerben, mit dem Sie Ihre Kenntnisse in einer Reihe unserer Produkte zu einem günstigen Preis erweitern können.

2023 Gartner Peer Insights Customers' Choice

IBM watsonx Assistant wurde im Gartner Peer Insights Voice of the Customer Report 2023 für Enterprise Conversational AI Platforms als „Customers' Choice“ ausgezeichnet

KI-gestützte Beschaffungsstrategie

Entdecken Sie, wie maschinelles Lernen die Nachfrage vorhersagen und Kosten senken kann.

Machen Sie den nächsten Schritt

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

watsonx.ai erkunden Buchen Sie eine Live-Demo