Was ist künstliche Intelligenz (KI)?

3D-Wiedergabe eines Gehirns, umgeben von Chat-Symbolen

Was ist KI? 

Künstliche Intelligenz (KI) ist eine Technologie, die es Computern und Maschinen ermöglicht, menschliches Lernen, Verständnis, Problemlösung, Entscheidungsfindung, Kreativität und Autonomie zu simulieren.

Anwendungen und Geräte, die mit KI ausgestattet sind, können Objekte wahrnehmen und identifizieren. Sie können die menschliche Sprache verstehen und darauf reagieren. Sie können aus neuen Informationen und Erfahrungen lernen. Sie können Benutzern und Experten detaillierte Empfehlungen geben. Sie können selbstständig handeln und machen menschliche Intelligenz oder Eingriffe überflüssig (ein klassisches Beispiel ist ein selbstfahrendes Auto).

Aber im Jahr 2024 sind die meisten KI-Forscher, Praktiker und die meisten KI-bezogenen Schlagzeilen auf Durchbrüche in der generativen KI (gen AI) konzentriert, einer Technologie, die originale Texte, Bilder, Videos und andere Inhalte erstellen kann. Um generative KI vollständig zu verstehen, ist es wichtig, zunächst die Technologien zu verstehen, auf denen generative KI-Tools basieren: maschinelles Lernen (ML) und Deep Learning.

Maschinelles Lernen

KI kann man sich vereinfacht als eine Reihe von ineinander verschachtelten oder abgeleiteten Konzepten vorstellen, die im Laufe von mehr als 70 Jahren entstanden sind:

Diagramm, das verschiedene Arten von Konzepten des maschinellen Lernens als verschachtelte Kästen in Blautönen vergleicht. Wie künstliche Intelligenz, maschinelles Lernen, Deep Learning und generative KI miteinander zusammenhängen.

Direkt unter der KI haben wir maschinelles Lernen, das die Erstellung von Modellen durch das Trainieren eines Algorithmus umfasst, um Vorhersagen oder Entscheidungen auf der Grundlage von Daten zu treffen. Es umfasst eine breite Palette von Techniken, die es Computern ermöglichen, aus Daten zu lernen und Schlussfolgerungen zu ziehen, ohne explizit für bestimmte Aufgaben programmiert zu sein.

Es gibt viele Arten von maschinellen Lerntechniken oder Algorithmen, darunter lineare Regression, logistische Regression, Entscheidungsbäume, Random Forest, Support-Vektor-Maschinen (SVMs), k-nächster Nachbar (KNN), Clustering und mehr. Jeder dieser Ansätze eignet sich für unterschiedliche Arten von Problemen und Daten.

Aber einer der beliebtesten Typen von Algorithmen für maschinelles Lernen ist das neuronale Netz (oder künstliches neuronales Netz). Neuronale Netze sind der Struktur und Funktion des menschlichen Gehirns nachempfunden. Ein neuronales Netz besteht aus miteinander verbundenen Schichten von Knoten (analog zu Neuronen), die zusammenarbeiten, um komplexe Daten zu verarbeiten und zu analysieren. Neuronale Netze eignen sich gut für Aufgaben, bei denen komplexe Muster und Beziehungen in großen Datenmengen identifiziert werden müssen.

Die einfachste Form des maschinellen Lernens wird als überwachtes Lernen bezeichnet, bei der gekennzeichnete Datensätze verwendet werden, um Algorithmen zu trainieren, die Daten klassifizieren oder Ergebnisse genau vorhersagen können. Beim überwachten Lernen ordnen Menschen jedes Trainingsbeispiel einem Output-Label zu. Ziel ist es, dass das Modell die Zuordnung zwischen Inputs und Outputs in den Trainingsdaten erlernt, damit es die Labels neuer, nicht sichtbarer Daten vorhersagen kann.

Deep Learning

Deep Learning ist ein Teilbereich des maschinellen Lernens, der mehrschichtige neuronale Netze (sogenannte tiefe neuronale Netze) verwendet, um die komplexen Entscheidungsstrukturen des menschlichen Gehirns genauer zu simulieren.

Tiefe neuronale Netze umfassen eine Eingabeebene, mindestens drei, aber in der Regel Hunderte von verborgenen Schichten und eine Ausgabeebene, im Gegensatz zu neuronalen Netzen, die in klassischen Modellen des maschinellen Lernens verwendet werden und in der Regel nur eine oder zwei verborgene Schichten aufweisen.

Diese mehreren Ebenen ermöglichen unüberwachtes Lernen: sie können die Extraktion von Merkmalen aus großen, unbeschrifteten und unstrukturierten Datensätzen automatisieren und ihre eigenen Vorhersagen darüber treffen, was die Daten darstellen.

Da für Deep Learning kein menschliches Eingreifen erforderlich ist, ermöglicht es maschinelles Lernen in großem Umfang. Es eignet sich gut für Verarbeitung natürlicher Sprache (NLP), Computer Vision und andere Aufgaben, bei denen es um die schnelle und genaue Identifizierung komplexer Muster und Beziehungen in großen Datenmengen geht. Die meisten Anwendungen der künstlichen Intelligenz (KI) in unserem heutigen Leben basieren auf einer Form des Deep Learning.

Ein Diagramm, das zeigt, wie Daten in einem tiefen neuronalen Netz verarbeitet werden. In einem tiefen neuronalen Netzwerk können mehrere Ebenen von Knoten Bedeutungen und Beziehungen aus großen Mengen unstrukturierter, nicht gekennzeichneter Daten extrahieren.

Deep Learning ermöglicht außerdem:

  • Halbüberwachtes Lernen, das überwachtes und unüberwachtes Lernen kombiniert, indem sowohl gekennzeichnete als auch nicht gekennzeichnete Daten verwendet werden, um KI-Modelle für Klassifizierungs- und Regressionsaufgaben zu trainieren.

  • Selbstüberwachtes Lernen, das implizite Labels aus unstrukturierten Daten generiert, anstatt sich auf gelabelte Datensätze für Überwachungssignale zu verlassen.

  • Verstärkendes Lernen, das durch Versuch und Irrtum und Belohnungsfunktionen lernt, anstatt Informationen aus verborgenen Mustern zu extrahieren.

  • Transferlernen, bei dem das durch eine Aufgabe oder einen Datensatz gewonnene Wissen genutzt wird, um die Modellleistung bei einer anderen verwandten Aufgabe oder einem anderen Datensatz zu verbessern.

Generative KI

Generative KI, manchmal auch „gen AI“ genannt, bezieht sich auf Deep-Learning-Modelle, die als Reaktion auf eine Eingabe oder Anfrage eines Benutzers komplexe Originalinhalte wie Langtexte, hochwertige Bilder, realistische Videos oder Audiodateien und mehr erstellen können.

Auf hoher Ebene kodieren generative Modelle eine vereinfachte Darstellungen ihrer Trainingsdaten und erstellen daraus ein neues Werk, das ähnlich ist, aber nicht identisch mit den ursprünglichen Daten.

Generative Modelle werden seit Jahren in Statistiken zur Analyse numerischer Daten verwendet. Aber im letzten Jahrzehnt haben sie sich weiterentwickelt und analysieren und generieren nun komplexere Typen von Daten. Diese Entwicklung fiel mit dem Aufkommen von drei hochentwickelten Typen von Deep-Learning-Modellen zusammen:

  • Variational Autoencoders oder VAEs, die 2013 eingeführt wurden, ermöglichten Modelle, die als Reaktion auf eine Eingabe oder Anweisung mehrere Variationen von Inhalten generieren konnten.

  • Diffusionsmodelle, die erstmals 2014 vorgestellt wurden, fügen Bildern „Rauschen“ hinzu, bis sie nicht mehr wiederzuerkennen sind, und entfernen dann das Rauschen, um auf Befehle hin Originalbilder zu erzeugen.

  • Transformer (auch Transformationsmodelle genannt), die anhand von sequenzierten Daten trainiert werden, um erweiterte Sequenzen von Inhalten zu generieren (z. B. Wörter in Sätzen, Formen in einem Bild, Frames in einem Video oder Befehle in einem Softwarecode). Transformer bilden den Kern der meisten der heutigen generativen KI-Tools, die derzeit für Schlagzeilen sorgen, darunter ChatGPT und GPT-4, Copilot, BERT, Bard und Midjourney.
AI Academy

KI-Experte werden

Erlangen Sie das nötige Wissen, um KI-Investitionen zu priorisieren, die das Unternehmenswachstum vorantreiben. Starten Sie noch heute mit unserer kostenlosen AI Academy und gestalten Sie die Zukunft der KI in Ihrem Unternehmen.

So funktioniert generative KI

Im Allgemeinen umfasst generative KI drei Phase:

  1. Training, um ein Foundation Model zu erstellen.
  2. Optimierung, um das Modell an eine bestimmte Anwendung anzupassen.
  3. Generierung, Auswertung und mehr Tuning, um die Genauigkeit zu verbessern.

Training

Generative KI beginnt mit einem „Foundation Model”. Dabei handelt es sich um ein Deep-Learning-Modell, das als Grundlage für mehrere verschiedene Arten von generativen KI-Anwendungen dient.

Die gängigsten Foundation Models sind heute große Sprachmodelle (LLMs), die für Anwendungen zur Textgenerierung entwickelt wurden. Es gibt aber auch Foundation Models für die Generierung von Bildern, Videos, Ton oder Musik sowie multimodale Foundation Models, die mehrere Arten von Inhalten unterstützen.

Für die Erstellung eines Foundation Models trainieren Anwender einen Deep-Learning-Algorithmus mit riesigen Mengen relevanter, unstrukturierter, ungekennzeichneter Rohdaten, wie z. B. Terabytes oder Petabytes an Daten, Texten, Bildern oder Videos aus dem Internet. Das Training ergibt ein neuronales Netz mit Milliarden von Parametern – verschlüsselte Darstellungen der Entitäten, Muster und Beziehungen in den Daten –, das als Reaktion auf Aufforderungen selbstständig Inhalte generieren kann. Das ist das Foundation Model.

Dieser Trainingsprozess ist rechenintensiv, zeitaufwendig und teuer. Es erfordert Tausende von gruppierten Grafikprozessoren (GPUs) und eine wochenlange Verarbeitung, die in der Regel Millionen von Dollar kostet. Projekte für Foundation-Models auf Open-Source-Basis wie Llama-2 von Meta ermöglichen es Entwicklern von generativer KI, diesen Schritt und die damit verbundenen Kosten zu vermeiden.

Optimierung

Im nächsten Schritt muss das Modell für eine bestimmte Aufgabe der Inhaltserstellung abgestimmt werden. Dies kann auf verschiedene Weise geschehen, darunter:

  • Bei der Feinabstimmung wird das Modell mit anwendungsspezifischen, gekennzeichneten Daten gefüttert – Fragen oder Prompts, die die Anwendung wahrscheinlich erhalten wird, und die entsprechenden richtigen Antworten im gewünschten Format.

  • Verstärkendes Lernen mit menschlichem Feedback (Reinforcement Learning with Human Feedback, RLHF), bei dem menschliche Benutzer die Genauigkeit oder Relevanz von Modellausgaben bewerten, damit sich das Modell selbst verbessern kann. Dies kann so einfach sein, dass die Leute Korrekturen in einen Chatbot oder einen virtuellen Assistenten eingeben oder sprechen.

Generierung, Evaluierung und weitere Optimierung

Entwickler und Benutzer bewerten regelmäßig die Outputs ihrer Apps für generative KI und passen das Modell weiter an – manchmal sogar einmal pro Woche –, um die Genauigkeit oder Relevanz zu erhöhen. Im Gegensatz dazu wird das Foundation Model selbst viel seltener aktualisiert, vielleicht einmal pro Jahr oder alle 18 Monate.

Eine weitere Möglichkeit zur Verbesserung der App-Leistung mit generativer KI ist „Retrieval Augmented Generation“(RAG). Hierbei handelt es sich um ein Verfahren zur Erweiterung des Foundation Model, um relevante Quellen außerhalb der Trainingsdaten zu nutzen und die Parameter für eine höhere Genauigkeit oder Relevanz zu verfeinern.

KI-Agenten und agentische KI

Ein KI-Agent ist ein autonomes KI-Programm, das Aufgaben ausführen und Ziele im Namen eines Benutzers oder eines anderen Systems ohne menschliches Eingreifen erledigen kann, indem es seinen eigenen Workflow gestaltet und verfügbare Anwendungen oder Dienste nutzt.

Agentische KI ist ein System mehrerer KI-Agenten, deren Bemühungen koordiniert oder orchestriert werden, um eine komplexere Aufgabe oder ein größeres Ziel zu erfüllen, als es jeder einzelne Agent im System erreichen könnte.

Im Gegensatz zu Chatbots und anderen KI-Modellen, die innerhalb vordefinierter Grenzen arbeiten und menschliches Eingreifen erfordern, weisen KI-Agenten und agentische KI Autonomie, zielorientiertes Verhalten und Anpassungsfähigkeit an sich ändernde Umstände auf. Die Begriffe „Agent“ und „agentisch“ beziehen sich auf die Handlungsfähigkeit dieser Modelle bzw. ihre Fähigkeit, selbstständig und zielgerichtet zu handeln.

Eine Möglichkeit, Agenten zu betrachten, ist, sie als natürlichen nächsten Schritt nach der generativen KI zu denken. Modelle generativer KI konzentrieren sich auf die Erstellung von Inhalten auf der Grundlage erlernter Muster; Agenten nutzen diese Inhalte, um miteinander und mit anderen Werkzeugen zu interagieren, um Entscheidungen zu treffen, Probleme zu lösen und Aufgaben zu erledigen. Eine KI-App mit generativer Intelligenz könnte Ihnen beispielsweise den besten Zeitpunkt für eine Besteigung des Mount Everest unter Berücksichtigung Ihres Arbeitsplans nennen. Ein Reisebüro kann Ihnen diese Information aber auch geben und anschließend über einen Online-Reiseservice den besten Flug buchen und ein Zimmer im günstigsten Hotel in Nepal reservieren.

Vorteile von AI 

KI bietet zahlreiche Vorteile in verschiedenen Branchen und Anwendungen. Zu den am häufigsten genannten Vorteilen gehören:

  • Automatisierung sich wiederholender Aufgaben.
  • Schnellere und umfassendere Erkenntnisse aus Daten.
  • Verbesserte Entscheidungsfindung.
  • Weniger menschliche Fehler.
  • Verfügbarkeit rund um die Uhr.
  • Geringere physische Risiken.

Automatisierung sich wiederholender Aufgaben

KI kann routinemäßige, sich wiederholende und oft mühsame Aufgaben automatisieren – einschließlich digitaler Aufgaben wie der Erfassung, Eingabe und Vorverarbeitung von Daten sowie physischer Aufgaben wie Lagerbestandsaufnahme und Fertigungsprozesse. Diese Automatisierung schafft Freiraum für wertschöpfendere, kreativere Arbeit.

Verbesserte Entscheidungsfindung

Ob zur Entscheidungsunterstützung oder zur vollautomatischen Entscheidungsfindung – KI ermöglicht schnellere und genauere Vorhersagen und zuverlässige, datengestützte Entscheidungen. In Kombination mit Automatisierung ermöglicht KI es Unternehmen, Chancen zu nutzen und auf Krisen zu reagieren, sobald sie auftreten – und zwar in Echtzeit und ohne Eingreifen des Menschen.

Weniger menschliche Fehler

KI kann menschliche Fehler auf verschiedene Weise reduzieren, indem sie Menschen durch die richtigen Schritte eines Prozesses führt, potenzielle Fehler anzeigt, bevor sie auftreten, und Prozesse vollständig ohne menschliches Eingreifen automatisiert. Das ist besonders in Branchen wie dem Gesundheitswesen wichtig, wo beispielsweise KI-gesteuerte chirurgische Robotertechnik eine gleichbleibende Präzision ermöglicht.

Algorithmen für maschinelles Lernen können ihre Genauigkeit kontinuierlich verbessern und Fehler weiter reduzieren, wenn sie mit mehr Daten konfrontiert werden und aus Erfahrungen „lernen“.

Verfügbarkeit und Konsistenz rund um die Uhr

KI ist dauerhaft aktiv, rund um die Uhr verfügbar und liefert jedes Mal eine gleichbleibende Leistung. Tools wie intelligente Chatbot oder virtuelle Assistenten können den Personalbedarf im Kundenservice oder Support verringern. In anderen Anwendungen wie der Materialverarbeitung oder in Produktionslinien kann KI dazu beitragen, eine gleichbleibende Arbeitsqualität und Produktionsleistung aufrechtzuerhalten, wenn sie zur Ausführung sich wiederholender oder aufwendiger Aufgaben eingesetzt wird.

Reduziertes physisches Risiko

Durch die Automatisierung gefährlicher Arbeiten (z. B. Kontrolle von Tieren, Arbeit mit Sprengstoffen, Tätigkeiten in der Tiefsee, in großen Höhen oder im Weltraum) kann KI die Notwendigkeit beseitigen, menschliche Arbeitskräfte dem Risiko von Verletzungen oder Schlimmerem auszusetzen. Obwohl sie noch nicht ausgereift sind, bieten selbstfahrende Autos und andere Fahrzeuge das Potenzial, das Verletzungsrisiko für die Insassen zu verringern.

KI-Anwendungsbeispiele 

Die realen Anwendungen von KI sind vielfältig. Hier ist nur eine kleine Auswahl von Anwendungsfällen aus verschiedenen Branchen, um das Potenzial zu veranschaulichen:

Customer Experience, Service und Support

Unternehmen können KI-gestützte Chatbots und virtuelle Assistenten einsetzen, um Kundenanfragen, Support-Tickets und vieles mehr zu bearbeiten. Diese Tools nutzen Verarbeitung natürlicher Sprache (NLP) und Funktionen der generativen KI, um Kundenfragen zum Bestellstatus, zu Produktdetails und zu Rückgaberichtlinien zu verstehen und zu beantworten.

Chatbots und virtuelle Assistenten ermöglichen einen ständig verfügbaren Support, bieten schnellere Antworten auf häufig gestellte Fragen (FAQs), entlasten menschliche Mitarbeiter, die sich auf anspruchsvollere Aufgaben konzentrieren können, und bieten Kunden einen schnelleren und konsistenteren Service.

Betrugserkennung

Algorithmen für maschinelles Lernen und Deep Learning können Transaktionsmuster analysieren und Anomalien wie ungewöhnliche Ausgaben oder Anmeldeorte melden, die auf betrügerische Transaktionen hinweisen. So können Unternehmen schneller auf potenziellen Betrug reagieren und dessen Auswirkungen begrenzen, was ihnen und ihren Kunden mehr Sicherheit gibt.

Personalisiertes Marketing

Einzelhändler, Banken und andere Unternehmen mit Kundenkontakt können mit KI personalisierte Customer Experiences und Marketingkampagnen erstellen, die Kunden begeistern, den Umsatz steigern und Abwanderung verhindern. Auf der Grundlage von Daten aus der Kaufhistorie und dem Verhalten der Kunden können Deep-Learning-Algorithmen Produkte und Dienstleistungen empfehlen, die Kunden wahrscheinlich wünschen. Zusätzlich lassen sogar personalisierte Texte und Sonderangebote für einzelne Kunden in Echtzeit erstellen.

Personalwesen und Rekrutierung

KI-gestützte Rekrutierungsplattformen können die Rekrutierung optimieren, indem sie Lebensläufe überprüfen, Kandidaten mit Stellenbeschreibungen abgleichen und mithilfe von Videoanalysen sogar Vorgespräche führen. Diese und andere Tools sorgen dafür, den Berg an administrativem Papierkram, der mit der Auswahl einer großen Anzahl von Kandidaten verbunden ist, drastisch zu reduzieren. Sie können auch die Reaktionszeiten und die Zeit bis zur Einstellung reduzieren und so die Erfahrung für Kandidaten verbessern, unabhängig davon, ob sie die Stelle bekommen oder nicht.

Anwendungsentwicklung und -modernisierung

Tools zur Codegenerierung und Automatisierung mit generativer KI können sich wiederholende Codierungsaufgaben im Zusammenhang mit der Anwendungsentwicklung optimieren und die Migration und Modernisierung (Neuformatierung und Replatforming) von Legacy-Anwendungen im großen Maßstab beschleunigen. Diese Tools können Aufgaben beschleunigen, die Konsistenz des Codes sicherstellen und Fehler reduzieren.

Vorausschauende Wartung

Modelle für maschinelles Lernen analysieren Daten von Sensoren, Geräten des Internets der Dinge (IoT) und der Betriebstechnologie (OT), um erforderliche Wartungsarbeiten und Geräteausfälle rechtzeitig vorherzusagen. Eine KI-gestützte vorbeugende Wartung hilft dabei, Ausfallzeiten zu vermeiden, und ermöglicht es Ihnen, Problemen in der Lieferkette einen Schritt voraus zu sein, bevor sie sich auf das Endergebnis auswirken.

Herausforderungen und Risiken der KI 

Unternehmen bemühen sich, die neuesten KI-Technologien zu nutzen und von den vielen Vorteilen der KI zu profitieren. Diese schnelle Einführung ist notwendig, aber gleichzeitig ist die Einführung und Aufrechterhaltung von KI-Workflows mit Herausforderungen und Risiken verbunden.

Datenrisiken

KI-Systeme stützen sich auf Datensätze, die anfällig für Datenverfälschung, Datenmanipulation, Datenverzerrung oder Cyberangriffe sein können, die zu Datenschutzverletzungen führen können. Unternehmen können diese Risiken mindern, indem sie die Integrität, Sicherheit und Verfügbarkeit von Daten während des gesamten KI-Lebenszyklus schützen, von der Entwicklung über die Schulung bis zur Bereitstellung und danach.

Modellrisiken

Bedrohungsakteure können KI-Modelle auf Diebstahl, Reverse Engineering oder unbefugte Manipulation abzielen. Angreifer könnten die Integrität eines Modells gefährden, indem sie die Architektur, die Gewichtungen oder die Parameter manipulieren – die Kernkomponenten, die das Verhalten, die Genauigkeit und die Leistung eines KI-Modells bestimmen.

Operationelle Risiken

Wie alle Technologien sind auch Modelle anfällig für operationelle Risiken wie Modellabweichungen, Verzerrungen und Ausfälle in der Governance-Struktur. Wenn diese Risiken nicht berücksichtigt werden, können sie zu Systemausfällen und Cybersicherheitslücken führen, die von Bedrohungsakteuren ausgenutzt werden können.

Ethische und rechtliche Risiken

Wenn Unternehmen bei der Entwicklung und Bereitstellung von KI-Systemen nicht auf Sicherheit und Ethik achten, riskieren sie Datenschutzverletzungen und verzerrte Ergebnisse. Zum Beispiel könnte verzerrte Trainingsdaten, die für Einstellungsentscheidungen verwendet werden, Geschlechter- oder Rassenstereotypen verstärken und KI-Modelle schaffen, die bestimmte demografische Gruppen gegenüber anderen bevorzugen.

KI-Ethik und Governance 

KI-Ethik ist ein multidisziplinäres Fachgebiet, das untersucht, wie die positiven Auswirkungen von KI optimiert und gleichzeitig Risiken und negative Folgen reduziert werden können. Die ethischen Grundsätze der KI werden durch ein System der KI-Governance angewendet, das aus Leitplanken besteht, die dazu beitragen, dass KI-Tools und -Systeme sicher und ethisch vertretbar bleiben.

Die KI-Governance umfasst Aufsichtsmechanismen, die Risiken angehen. Ein ethischer Ansatz für die KI-Governance erfordert die Einbeziehung eines breiten Spektrums von Stakeholdern, einschließlich Entwicklern, Nutzern, politischen Entscheidungsträgern und Ethikern, um sicherzustellen, dass KI-bezogene Systeme im Einklang mit den Werten der Gesellschaft entwickelt und genutzt werden.

Hier sind gemeinsame Werte, die mit KI-Ethik und verantwortungsvoller KI verbunden sind:

Erklärbarkeit und Interpretierbarkeit

Mit zunehmender Weiterentwicklung der KI steht der Mensch vor der Herausforderung, den Weg, auf dem der Algorithmus zu einem Ergebnis gekommen ist, zu verstehen und nachzuvollziehen. Erklärbare KI bezeichnet eine Reihe von Prozessen und Methoden, anhand derer menschliche Benutzer die von Algorithmen erstellten Ergebnisse und Ausgaben interpretieren, verstehen und ihnen vertrauen können.

Fairness und Inklusion

Obwohl das maschinelle Lernen von Natur aus eine Form der statistischen Diskriminierung ist, wird diese Diskriminierung dann verwerflich, wenn sie privilegierte Gruppen systematisch begünstigt und bestimmte nicht privilegierte Gruppen systematisch benachteiligt, was zu vielfältigen Schäden führen kann. Um Fairness zu fördern, können Praktiker versuchen, algorithmische Verzerrungen bei der Datenerfassung und dem Modelldesign zu minimieren und vielfältigere und integrativere Teams aufzubauen.

Robustheit und Sicherheit

Robuste KI bewältigt effektiv außergewöhnliche Bedingungen, wie z. B. Anomalien bei der Eingabe oder böswillige Angriffe, ohne unbeabsichtigten Schaden zu verursachen. Sie ist außerdem so konzipiert, dass sie vorsätzlichen und unbeabsichtigten Eingriffen standhält, indem sie vor exponierten Schwachstellen schützt.

Rechenschaftspflicht und Transparenz

Unternehmen sollten klare Verantwortlichkeiten und Governance-Strukturen für die Entwicklung, Bereitstellung und Ergebnisse von KI-Systemen festlegen. Darüber hinaus sollten Benutzer in der Lage sein, die Funktionsweise eines KI-Dienstes zu erkennen, seine Funktionalität zu bewerten und seine Stärken und Grenzen zu verstehen. Eine erhöhte Transparenz bietet Informationen für KI-Nutzer, damit sie besser verstehen, wie das KI-Modell oder der KI-Dienst erstellt wurde.

Datenschutz und Compliance

Viele regulatorische Frameworks – einschließlich der DSGVO – schreiben vor, dass Unternehmen bei der Verarbeitung personenbezogener Daten bestimmte Datenschutzgrundsätze einhalten müssen. Es ist von entscheidender Bedeutung, KI-Modelle, die möglicherweise personenbezogene Daten enthalten, schützen zu können, zu kontrollieren, welche Daten überhaupt in das Modell einfließen, und anpassungsfähige Systeme zu entwickeln, die sich an Änderungen der Vorschriften und Einstellungen in Bezug auf die KI-Ethik anpassen können.

Schwache KI vs. starke KI 

Um den Einsatz von KI auf verschiedenen Komplexitäts- und Entwicklungsstufen zu kontextualisieren, haben Forscher mehrere Typen von KI definiert, die sich auf den Entwicklungsstand beziehen:

Schwache KI: Auch als „schmale KI“ bekannt. Bezeichnet KI-Systeme, die für die Ausführung einer bestimmten Aufgabe oder eines Aufgabensatzes entwickelt wurden. Beispiele hierfür könnten „intelligente“ Sprachassistenten-Apps wie Alexa von Amazon, Siri von Apple, ein Social-Media-Chatbot oder die von Tesla versprochenen autonomen Fahrzeuge sein.

Starke KI: Auch bekannt als „allgemeine künstliche Intelligenz“ (AGI) oder „allgemeine KI“, besitzt sie die Fähigkeit, Wissen über ein breites Spektrum von Aufgaben hinweg zu verstehen, zu erlernen und anzuwenden. Und das geschieht auf einem Niveau, das der menschlichen Intelligenz entspricht oder sie übertrifft. Dieses Level der KI ist derzeit noch theoretisch und kein bekanntes KI-System erreicht diese Stufe der Komplexität. Forscher argumentieren, dass, wenn AGI überhaupt möglich ist, die Rechenleistung erheblich gesteigert werden muss. Trotz der jüngsten Fortschritte in der KI-Entwicklung bleiben selbstbewusste KI-Systeme aus der Science-Fiction fest in diesem Bereich verankert.

Geschichte der KI 

Die Idee einer „Maschine, die denkt“ geht auf das antike Griechenland zurück. Aber seit dem Aufkommen der elektronischen Datenverarbeitung (und in Bezug auf einige der in diesem Artikel behandelten Themen) kam es in der Entwicklung der künstlichen Intelligenz zu folgenden wichtigen Ereignissen und Meilensteinen:

1950
Alan Turing veröffentlicht Computing Machinery and Intelligence. In diesem Artikel stellt Turing – berühmt für die Entschlüsselung des deutschen ENIGMA-Codes während des Zweiten Weltkriegs und oft als „Vater der Informatik“ bezeichnet – die folgende Frage: „Können Maschinen denken?“

Basierend auf dieser Frage bietet er einen Test an, der heute als „Turing-Test“ bekannt ist und bei dem ein menschlicher Fragesteller versucht, zwischen einer Computer- und einer menschlichen Textantwort zu unterscheiden. Obwohl dieser Test seit seiner Veröffentlichung viel Kritik ausgesetzt war, bleibt er ein wichtiger Teil der Geschichte der KI und ein fortwährendes Konzept in der Philosophie, da er Ideen rund um die Linguistik verwendet.

1956
John McCarthy prägt auf der allerersten KI-Konferenz am Dartmouth College den Begriff „künstliche Intelligenz“. (McCarthy erfand später die Sprache LISP.) Später im selben Jahr entwickeln Allen Newell, J.C. Shaw und Herbert Simon den Logic Theorist, das allererste laufende KI-Softwareprogramm.

1967
Frank Rosenblatt baut den Mark 1 Perceptron, den ersten Computer, der auf einem neuronalen Netzwerk basiert und durch Versuch und Irrtum „gelernt“ hat. Nur ein Jahr später veröffentlichen Marvin Minsky und Seymour Papert ein Buch mit dem Titel „Perceptrons“, das sowohl zum Meilenstein der neuronalen Netze als auch, zumindest für eine Weile, zum Argument gegen künftige Forschungsprojekte zu neuronalen Netzen wird.

1980
Neuronale Netze, die einen Backpropagation-Algorithmus verwenden, um sich selbst zu trainieren, werden in KI-Anwendungen weithin eingesetzt.

1995
Stuart Russell und Peter Norvig veröffentlichen Artificial Intelligence: A Modern Approach, das zu einem der führenden Lehrbücher zur KI-Erforschung wird. Darin befassen sie sich mit vier möglichen Zielen oder Definitionen von KI, die Computersysteme danach unterscheiden, ob sie rational denken oder handeln.

1997
IBM Deep Blue besiegt den damaligen Schachweltmeister Garry Kasparov in einem Schachmatch (und einem Revanchematch).

2004
John McCarthy verfasst eine Abhandlung mit dem Titel „ What Is Artificial Intelligence?“ und schlägt eine oft zitierte Definition von KI vor. Zu diesem Zeitpunkt hat das Zeitalter von Big Data und Cloud Computing bereits begonnen. Unternehmen können immer größere Datensätze verwalten, die eines Tages für das Training von KI-Modellen verwendet werden. 

2011
IBM Watson schlägt Champions Ken Jennings und Brad Rutter bei Jeopardy! Etwa zu dieser Zeit entwickelt sich auch die Data Science zu einer beliebten Disziplin.

2015
Der Supercomputer Minwa von Baidu verwendet ein spezielle tiefes neuronales Netz, ein sogenanntes Convolutional Neural Network, um Bilder mit einer höheren Genauigkeit zu identifizieren und zu kategorisieren als der durchschnittliche Mensch.

2016
Das Programm AlphaGo von DeepMind, das von einem tiefen neuronalen Netz angetrieben wird, besiegt Lee Sodol, den Go-Weltmeister, in einem Fünf-Spiele-Match. Der Sieg ist angesichts der riesigen Anzahl möglicher Züge im Verlauf des Spiels (über 14,5 Billionen nach nur vier Zügen) von großer Bedeutung. Später kaufte Google DeepMind für angeblich 400 Millionen USD.

2022
Die Zunahme großer Sprachmodelle oder LLMs, wie OpenAIs ChatGPT, führt zu einer enormen Veränderung in der Leistung von KI und ihrem Potenzial, den Unternehmenswert zu steigern. Mit diesen neuen generativen KI-Praktiken können Deep-Learning-Modelle vorab mit riesigen Mengen an Daten trainiert werden.

2024
Die neuesten KI-Trends deuten auf eine anhaltende KI-Renaissance hin. Multimodale Modelle, die mehrere Datentypen als Eingaben verwenden können, bieten reichhaltigere und robustere Erfahrungen. Diese Modelle vereinen die Funktionen der Bilderkennung durch Computer Vision und der Spracherkennung durch NLP. Kleinere Modelle machen auch im Zeitalter sinkender Renditen mit massiven Modellen mit großen Parameterzahlen Fortschritte.

Autoren

Cole Stryker

Staff Editor, AI Models

IBM Think

Eda Kavlakoglu

Business Development + Partnerships

IBM Research

Weiterführende Lösungen
IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

watsonx.ai erkunden
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein
– mit branchenführendem Fachwissen im Bereich KI und dem umfassenden Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
Beratung und Services zu künstlicher Intelligenz (KI)

Die KI-Services von IBM Consulting unterstützen Sie dabei, die Art und Weise, wie Unternehmen mit KI arbeiten, neu zu denken.

KI-Services entdecken
Machen Sie den nächsten Schritt

Mithilfe von KI liefert IBM Concert wichtige Erkenntnisse über Ihre Abläufe und gibt anwendungsspezifische Empfehlungen zur Verbesserung. Entdecken Sie, wie Concert Ihr Unternehmen voranbringen kann.

  1. Entdecken Sie Concert
  2. Erkunden Sie Lösungen zur Geschäftsprozessautomatisierung