Mein IBM Anmelden Abonnieren

Was ist generative KI? 

22. März 2024

Autoren

Cole Stryker

Editorial Lead, AI Models

Gather

Mark Scapicchio

Content Director of Inbound and SEO for IBM.com

Was ist generative KI?

Generative KI, manchmal auch als Gen AI bezeichnet, ist künstliche Intelligenz (KI), die als Antwort auf den Prompt oder die Anfrage eines Benutzers Originalinhalte wie Text, Bilder, Video, Audio oder Softwarecode generiert.

Generative KI stützt sich auf ausgeklügelte Modelle für maschinelles Lernen, sogenannte Deep Learning Modelle, d. h. Algorithmen, die die Lern- und Entscheidungsprozesse des menschlichen Gehirns nachahmen. Diese Modelle funktionieren, indem sie die Muster und Beziehungen in riesigen Datenmengen identifizieren und kodieren und diese Informationen dann verwenden, um die Wünsche oder Fragen der Benutzer in natürlicher Sprache zu verstehen und mit relevanten neuen Inhalten zu antworten.

KI ist bereits seit einem Jahrzehnt ein heiß diskutiertes Thema im Technologiebereich. Aber die generative KI, insbesondere die Einführung von ChatGPT im Jahr 2022, haben das Thema KI weltweit in den Vordergrund gerückt und einen beispiellosen Anstieg der KI-Innovation und -Akzeptanz ausgelöst. Generative KI ermöglicht enorme Produktivitätsgewinne für Einzelpersonen und Unternehmen gleichermaßen. Und obwohl generative KI auch mit äußerst konkreten Herausforderungen und Risiken verbunden ist, sind Unternehmen entschlossen, herauszufinden, wie die Technologie ihre internen Workflows verbessern und ihre Produkte und Services optimieren kann. Laut einer Studie der Unternehmensberatungsfirma McKinsey nutzt ein Drittel der Unternehmen bereits regelmäßig generative KI in mindestens einem Geschäftsbereich.¹ Der Branchenanalyst Gartner geht zudem davon aus, dass bis 2026 mehr als 80 % der Unternehmen generative KI-Anwendungen einsetzen oder Anwendungsprogrammierschnittstellen (APIs) für generative KI nutzen werden.2

So funktioniert generative KI

Generative KI umfasst im Grunde drei Phasen: 

  • Training, um ein Foundation Model zu entwickeln, das als Basis für verschiedene Anwendungen generativer KI dienen kann.

  • Anpassung, um das Foundation Model an eine spezifische Anwendung für generative KI anzupassen.

  • Generierung, Bewertung und Neuabstimmung, um die Ausgabe der KI-Anwendung zu bewerten und ihre Qualität und Genauigkeit kontinuierlich zu verbessern.

Training

Generative KI beginnt mit einem Foundation Model. Dabei handelt es sich um ein Deep-Learning-Modell, das als Grundlage für mehrere verschiedene Arten von generativen KI-Anwendungen dient. Die gängigsten Foundation Models sind heute große Sprachmodelle (LLMs), die für Anwendungen zur Textgenerierung entwickelt wurden. Es gibt aber auch Foundation Models für die Generierung von Bildern, Videos und Sound sowie Musik. Darüber hinaus gibt es multimodale Foundation Models, die verschiedene Arten der Inhaltsgenerierung unterstützen.

Für die Erstellung eines Foundation Models trainieren die Experten einen Deep-Learning-Algorithmus anhand von riesigen Mengen an unstrukturierten, nicht gekennzeichneten Rohdaten. Das können zum Beispiel Terabytes an Daten sein, die aus dem Internet oder einer anderen riesigen Datenquelle stammen. Während des Trainings führt der Algorithmus Millionen von sogenannten „Fill in the Blank“-Übungen durch und wertet die Ergebnisse aus. Dabei versucht er, das nächste Element in einer Sequenz vorherzusagen, z. B. das nächste Wort in einem Satz, das nächste Element in einem Bild oder den nächsten Befehl in einer Codezeile. Dabei passt sich der Algorithmus ständig an, um die Differenz zwischen seinen Vorhersagen und den tatsächlichen Daten (oder dem „richtigen“ Ergebnis) zu minimieren.

Die Ergebnisse dieses Trainings sind ein neuronales Netz von Parametern– codierte Darstellungen der Entitäten, Muster und Beziehungen in den Daten –, das als Reaktion auf Eingaben oder Prompt autonom Inhalte generieren kann.

Dieser Trainingsprozess ist rechenintensiv, zeitaufwändig und teuer: Dafür sind Tausende von geclusterten GPUs (Graphics Processing Units) und wochenlange Verarbeitung erforderlich, was alles Millionen von Dollar kostet. Projekte für Foundation-Models auf Open-Source-Basis wie Llama-2 von Meta ermöglichen es Entwicklern von generativer KI, diesen Schritt und die damit verbundenen Kosten zu vermeiden.

Optimierung

Metaphorisch ausgedrückt, ist ein Foundation Model ein Generalist: Das heißt, es weiß eine Menge über viele Arten von Inhalten, kann aber oft bestimmte Arten von Outputs nicht so genau oder zuverlässig generieren wie gewünscht. Damit dies möglich ist, muss das Modell auf eine bestimmte Aufgabe der Inhaltserstellung abgestimmt werden. Dafür gibt es verschiedene Möglichkeiten.

Feinabstimmung

Feinabstimmung bedeutet, dem Modell Daten zuzuführen, die für die Anwendung zur Inhaltsgenerierung spezifisch sind. Dabei handelt es sich um Fragen oder Prompts, die die Anwendung wahrscheinlich erhalten wird, und die entsprechenden richtigen Antworten im gewünschten Format. Wenn ein Entwicklungsteam beispielsweise versucht, einen Chatbot für den Kundenservice zu entwickeln, erstellt es Hunderte oder Tausende von Dokumenten, die gekennzeichnete Fragen an den Kundenservice samt der richtigen Antworten enthalten. Das Modell wird dann mit diesen Dokumenten „gefüttert“.

Der Arbeitsaufwand bei der Feinabstimmung ist sehr hoch. Entwickler beauftragen oft externe Unternehmen mit dieser Aufgabe, da diese über eine große Anzahl von Mitarbeitern für die Kennzeichnung von Daten verfügen.

Reinforcement Learning mit menschlichem Feedback (RLHF)

Beim RLHF werten menschliche Benutzer generierte Inhalte aus. Diese Antworten verwendet das Modell dann zur Aktualisierung der Ergebnisse, um höhere Genauigkeit oder mehr Relevanz zu erzielen. Beim RLHF werden häufig unterschiedliche Ergebnisse als Antwort auf denselben Prompt „bewertet“. Manchmal ist es aber auch so einfach, dass Menschen einem Chatbot oder einem virtuellen Assistenten antworten und seinen Output korrigieren.

Generierung, Evaluierung, mehr Optimierung

Entwickler und Benutzer bewerten kontinuierlich die Outputs ihrer Apps für generative KI und passen das Modell weiter an – manchmal sogar einmal pro Woche –, um die Genauigkeit oder Relevanz zu erhöhen. (Im Gegensatz dazu wird das Foundation Model selbst viel seltener aktualisiert, vielleicht einmal pro Jahr oder alle 18 Monate).

Eine weitere Möglichkeit, die Leistung einer Gen-KI-App zu verbessern, ist Retrieval-Augmented Generation (RAG). RAG ist ein Framework zur Erweiterung des Foundation Models, um relevante Quellen außerhalb der Trainingsdaten zu verwenden und die Parameter oder Darstellungen im ursprünglichen Modell zu ergänzen und zu verfeinern. RAG kann sicherstellen, dass eine generative KI-App immer Zugriff auf die aktuellsten Informationen hat. Als Bonus sind die über RAG abgerufenen zusätzlichen Quellen für Benutzer auf eine Weise transparent, die das Wissen im ursprünglichen Foundation Model nicht ist.

Modellarchitekturen der generativen KI und ihre bisherige Entwicklung

Wirklich generative KI-Modelle – also Deep-Learning-Modelle, die bei Bedarf eigenständig Inhalte erstellen können – haben sich in den letzten zwölf Jahren kontinuierlich weiterentwickelt. Zu den wichtigsten Modellarchitekturen in diesem Zeitraum gehören:

  • Variational Autoencoder (VAEs), die zu einem Durchbruch in der Bilderkennung, der Verarbeitung natürlicher Sprache und der Erkennung von Anomalien geführt haben.

  • Generative Adversarial Networks (GANs) und Diffusionsmodelle, die die Genauigkeit früherer Anwendungen verbesserten und einige der ersten KI-Lösungen für die fotorealistische Bilderzeugung ermöglichten.

  • Transformer mit der Deep-Learning-Modellarchitektur, auf der heute die wichtigsten Foundation Models und Lösungen für generative KI basieren.

Variational Autoencoder (VAEs)

Ein Autoencoder ist ein Deep-Learning-Modell, das aus zwei verbundenen neuronalen Netzen besteht: Eines kodiert (oder komprimiert) eine große Menge unstrukturierter, nicht gekennzeichneter Trainingsdaten in Parameter, und ein anderes dekodiert diese Parameter, um den Inhalt zu rekonstruieren. Technisch gesehen können Autoencoder neue Inhalte generieren, aber sie sind eher für die Komprimierung von Daten zur Speicherung oder Übertragung und die Dekomprimierung zur Verwendung geeignet als für die Generierung hochwertiger Inhalte.

Variational Autoencoder (VAEs) wurden 2013 eingeführt und können Daten wie ein Autoencoder kodieren, aber mehrere neue Variationen des Inhalts dekodieren. Durch das Training eines VAE, Variationen in Richtung eines bestimmten Ziels zu generieren, kann es mit der Zeit präzisere, zuverlässigere Inhalte finden. Zu den frühen VAE-Anwendungen gehörten die Erkennung von Anomalien (z. B. bei der medizinischen Bildanalyse) und die Generierung natürlicher Sprache.

Generative Adversarial Networks (GANs)

GANs, die 2014 eingeführt wurden, bestehen ebenfalls aus zwei neuronalen Netzen: einem Generator, der neue Inhalte erzeugt, und einem Diskriminator, der die Genauigkeit und Qualität der erzeugten Daten bewertet. Diese gegensätzlichen Algorithmen regen das Modell dazu an, immer hochwertigere Outputs zu erzeugen.

GANs werden häufig zur Generierung von Bildern und Videos verwendet, können aber in verschiedenen Bereichen hochwertige, realistische Inhalte generieren. Sie haben sich bei Aufgaben wie der Stilübertragung (Änderung des Stils eines Bildes, zum Beispiel von einem Foto zu einer Bleistiftskizze) und der Datenerweiterung (Erstellung neuer, synthetischer Daten, um die Größe und Vielfalt eines Trainingsdatensatzes zu erhöhen) als besonders erfolgreich erwiesen.

Diffusionsmodelle

Diffusionsmodelle, die ebenfalls 2014 eingeführt wurden, funktionieren, indem sie zuerst Rauschen zu den Trainingsdaten hinzufügen, bis es zufällig und nicht mehr erkennbar ist, und dann den Algorithmus so trainieren, dass er das Rauschen iterativ diffundiert, um einen gewünschten Output zu erzielen.

Diffusionsmodelle benötigen mehr Zeit zum Trainieren als VAEs oder GANs, ermöglichen aber letztendlich eine differenziertere Kontrolle über die Ausgabe, insbesondere für Tools zur Generierung hochwertiger Bilder. DALL-E, das Bildgenerierungstool von Open AI, basiert auf einem Diffusionsmodell.

Transformer

Die erstmals in einem Artikel von Ashish Vaswani und anderen aus dem Jahr 2017 dokumentiertenTransformer sind eine Weiterentwicklung des Encoder-Decoder-Paradigmas und ermöglichen einen großen Fortschritt bei der Art und Weise, wie Foundation Models trainiert werden, sowie bei der Qualität und Bandbreite der Inhalte, die sie produzieren können. Diese Modelle bilden den Kern der meisten der heutigen generativen KI-Tools, die derzeit für Schlagzeilen sorgen, darunter ChatGPT und GPT-4, Copilot, BERT, Bard und Midjourney, um nur einige zu nennen.

Transformer verwenden ein Konzept namens Aufmerksamkeit (auch das Bestimmen und Fokussieren auf das Wichtigste in den Daten einer Sequenz), um Folgendes zu erreichen:

  • gleichzeitige Verarbeitung ganzer Sequenzen von Daten, z. B. von Sätzen statt einzelner Wörter;

  • Erfassung des Kontexts der Daten innerhalb der Sequenz;

  • Kodierung der Trainingsdaten in Einbettungen (auch Hyperparameter genannt), welche die Daten und ihren Kontext darstellen.

Transformers ermöglichen nicht nur ein schnelleres Training, sondern zeichnen sich auch durch die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) und das Verstehen natürlicher Sprache (Natural Language Understanding, NLU) aus und können längere Datensequenzen mit höherer Genauigkeit und Qualität als andere umfassende Modelle für generative KI generieren. Sie können also nicht nur Antworten auf Fragen ausgeben, sondern auch Gedichte, Artikel oder Paper generieren. Transformer-Modelle können auch für die Verwendung von Tools (z. B. Tabellenkalkulationsprogramme, HTML, Zeichenprogramme) trainiert oder abgestimmt werden, um Inhalte in einem bestimmten Format auszugeben.

Was kann generative KI erschaffen?

Generative KI kann viele Arten von Inhalten in vielen verschiedenen Bereichen erschaffen. 

Text

Generative Modelle, insbesondere solche, die auf Transformern basieren, können kohärenten Text generieren, der für den jeweiligen Kontext relevant ist – von Anweisungen und Dokumentationen bis hin zu Broschüren, E-Mails, Website-Texten, Blogs, Artikeln, Berichten, Papers und sogar kreativem Schreiben. Sie können auch sich wiederholende oder mühsame Schreibaufgaben erledigen (z. B. das Verfassen von Zusammenfassungen von Dokumenten oder Meta-Beschreibungen von Webseiten), wodurch Autoren mehr Zeit für kreativere, wertvollere Aufgaben bekommen.

Bilder und Videos

Mit Bildgenerierungen wie DALL-E, Midjourney und Stable Diffusion können realistische Bilder oder Originalkunstwerke erstellt und Stilübertragungen, Bild-zu-Bild-Übersetzungen und andere Aufgaben zur Bildbearbeitung oder Bildverbesserung durchgeführt werden. Neue, auf generativer KI basierende Videotools können Animationen aus Textanweisungen erstellen und Spezialeffekte schneller und kostengünstiger auf bestehende Videos anwenden als andere Methoden.

Sound, Sprache und Musik

Generative Modelle können natürlich klingende Sprach- und Audioinhalte für sprachgesteuerte KI-Chatbots und digitale Assistenten, Hörbucherzählungen und andere Anwendungen synthetisieren. Mit derselben Technologie lässt sich auch Originalmusik erzeugen, die die Struktur und den Klang professioneller Kompositionen nachahmt.

Softwarecode

Generative KI kann Originalcode generieren, Code-Snippets automatisch vervollständigen, zwischen Programmiersprachen übersetzen und die Funktionalität von Code zusammenfassen. So können Entwickler schnell Prototypen erstellen, Anwendungen überarbeiten und debuggen und gleichzeitig eine Oberfläche in natürlicher Sprache für Codierungsaufgaben nutzen.

Design und Kunst

Generative KI-Modelle können einzigartige Kunst- und Designarbeiten erzeugen oder beim Grafikdesign helfen. Zu den Anwendungen gehören die dynamische Generierung von Umgebungen, Figuren oder Avataren sowie Spezialeffekte für virtuelle Simulationen und Videospiele.

Simulationen und synthetische Daten

Generative KI-Modelle können so geschult werden, dass sie synthetische Daten oder synthetische Strukturen basierend auf echten oder synthetischen Daten generieren. Generative KI wird beispielsweise in der Arzneimittelforschung eingesetzt, um molekulare Strukturen mit bestimmten gewünschten Eigenschaften zu erzeugen, was der Entwicklung neuer pharmazeutischer Wirkstoffe zugutekommt.

Vorteile von generativer KI

Der offensichtliche, übergreifende Nutzen der generativen KI ist eine größere Effizienz. Da sie bei Bedarf Inhalte und Antworten generieren kann, hat generative KI das Potenzial, arbeitsintensive Aufgaben zu beschleunigen oder zu automatisieren, Kosten zu senken und Mitarbeitern Zeit für höherwertige Arbeit zu geben.

Generative KI bietet jedoch noch weitere Vorteile für Einzelpersonen und Unternehmen.

Verbesserte Kreativität

Generativen KI-Tools können die Kreativität durch automatisiertes Brainstorming anregen, indem sie mehrere neue Versionen von Inhalten generieren. Diese Variationen können auch als Ausgangspunkte oder Referenzen dienen, die Schriftstellern, Künstlern, Designern und anderen Kreativen helfen, kreative Blockaden zu überwinden.

Verbesserte (und schnellere) Entscheidungsfindung

Generative KI zeichnet sich durch die Analyse großer Datensätze, die Identifizierung von Mustern und die Gewinnung aussagekräftiger Erkenntnisse aus. Anschließend werden auf der Grundlage dieser Erkenntnisse Hypothesen und Empfehlungen erstellt, die Führungskräfte, Analysten, Forscher und andere Fachleute dabei unterstützen, intelligentere, datengestützte Entscheidungen zu treffen.

Dynamische Personalisierung

In Anwendungen wie Empfehlungssystemen und der Erstellung von Inhalten kann generative KI die Vorlieben und die Historie der Benutzer analysieren und anschließend anhand dessen personalisierte Inhalte in Echtzeit erstellen, was zu einem maßgeschneiderten und ansprechenden Benutzererlebnis führt.

Ständige Verfügbarkeit

Generative KI ist kontinuierlich in Betrieb, wird nie müde und bietet rund um die Uhr Verfügbarkeit zur Erledigung von Aufgaben wie den Kundensupport per Chatbot und automatisierte Antworten.

Anwendungsfälle für generative KI

Im Folgenden finden Sie eine Auswahl an Anwendungsfällen für generative KI in Unternehmen. Wenn sich die Technologie weiterentwickelt und Unternehmen diese Tools in ihre Workflows einbinden, werden noch viele weitere hinzukommen. 

Customer Experience

Marketingunternehmen können mit generativen KI-Tools Zeit sparen und ihre Inhaltsproduktion steigern, indem sie Texte für Blogs, Webseiten, Werbematerialien, E-Mails und mehr entwerfen. Generative KI-Lösungen können aber auch in Echtzeit hochgradig personalisierte Marketingtexte und Visuals erstellen, abhängig davon, wann, wo und für wen die Anzeige ausgespielt wird. Sie wird außerdem die nächste Generation von Chatbots und virtuelle Agenten antreiben, die personalisierte Antworten geben und sogar Aktionen im Namen des Kunden einleiten können – ein bedeutender Fortschritt im Vergleich zur vorherigen Generation von dialogorientierten KI-Modellen, die auf begrenzten Daten für sehr spezifische Aufgaben trainiert wurden.

Softwareentwicklung und Anwendungsmodernisierung

Tools zur Codegenerierung können den Prozess der Erstellung von neuem Code automatisieren und beschleunigen. Die Code-Generierung hat auch das Potenzial, die Anwendungsmodernisierung drastisch zu beschleunigen, indem ein Großteil der sich wiederholenden Codierung automatisiert wird, die für die Modernisierung von veralteten Anwendungen für Hybrid-Cloud-Umgebungen erforderlich ist.

Digitale Arbeit

Generative KI kann schnell Verträge, Rechnungen und andere digitale oder physische Dokumente erstellen oder überarbeiten. So können sich die Mitarbeiter, die diese Dokumente nutzen oder für deren Verwaltung verantwortlich sind, auf wichtigere Aufgaben konzentrieren. Damit lassen sich die Workflows in praktisch jedem Unternehmensbereich beschleunigen, einschließlich Personalwesen, Recht, Beschaffung und Finanzen.

Wissenschaft, Technik und Forschung

Generative KI-Modelle können Wissenschaftlern und Ingenieuren helfen, neue Lösungen für komplexe Probleme vorzuschlagen. Im Gesundheitswesen können generative Modelle zum Beispiel zur Synthese medizinischer Bilder für das Training und Testen medizinischer Bildgebungssysteme eingesetzt werden.

Herausforderungen, Einschränkungen und Risiken

Generative KI hat in relativ kurzer Zeit bemerkenswerte Fortschritte erzielt, stellt Entwickler, Benutzer und die breite Öffentlichkeit aber immer noch vor große Herausforderungen und Risiken. Nachfolgend finden Sie einige der größten Probleme und wie sie angegangen werden. 

„Halluzinationen“ und andere ungenaue Outputs

Eine KI-Halluzination ist ein generativer KI-Output, der unsinnig oder völlig ungenau ist – aber allzu oft völlig plausibel erscheint. Das klassische Beispiel ist, wenn ein Anwalt ein Gen-KI-Tool für die Recherche zur Vorbereitung eines hochkarätigen Falls verwendet hat – und das Tool mehrere Beispielfälle hervorgebracht, komplett mit Zitaten und Zuschreibungen, die völlig fiktiv waren.

Einige Anwender betrachten Halluzinationen als unvermeidliche Folge der Abwägung zwischen der Genauigkeit eines Modells und seinen kreativen Fähigkeiten. Entwickler können jedoch vorbeugende Maßnahmen, sogenannte Verhaltensregeln, einführen, die das Modell auf relevante oder vertrauenswürdige Datenquellen beschränken. Eine kontinuierliche Bewertung und Abstimmung kann ebenfalls dazu beitragen, Halluzinationen und Ungenauigkeiten zu reduzieren.

Inkonsistente Outputs

Weil generative KI-Modelle variabel bzw. wahrscheinlichkeitsbasiert sind, können die gleichen Eingaben zu leicht oder erheblich unterschiedlichen Ausgaben führen. Dies kann bei bestimmten Anwendungen unerwünscht sein, z. B. bei Chatbots für den Kundenservice, wo einheitliche Ergebnisse erwartet oder gewünscht werden. Durch Prompt Engineering– also die iterative Verbesserung oder Kombination von Prompts – können Benutzer Prompts erhalten, die konsistent die gewünschten Ergebnisse ihrer generativen KI-Anwendungen liefern.

Bias

Es kann passieren, dass generative Modelle gesellschaftliche Vorurteile (Verzerrungen) lernen, die ihren Ursprung in den Trainingsdaten haben – oder in den gekennzeichneten Daten, externen Datenquellen oder menschlichen Bewertern, die mit der Abstimmung des Modells beauftragt werden – und infolgedessen voreingenommene, unfaire oder beleidigende Inhalte generieren. Um voreingenommene Outputs ihrer Modelle zu verhindern, müssen die Entwickler vielfältige Trainingsdaten verwenden, Richtlinien zur Vermeidung von Verzerrungen während des Trainings und der Abstimmung festlegen und die Ausgaben des Modells kontinuierlich auf Verzerrungen und Genauigkeit überprüfen.

Mangelnde Erklärbarkeit und fehlende Metriken

Viele Modelle der generativen KI sind „Blackbox“-Modelle, d. h. es kann schwierig oder unmöglich sein, ihre Entscheidungsprozesse nachzuvollziehen. Selbst die Ingenieure oder Data Scientists, die den zugrundeliegenden Algorithmus entwickeln, haben Schwierigkeiten zu verstehen oder zu erklären, was genau im Algorithmus vor sich geht und wie er zu einem bestimmten Ergebnis kommt. Praktiken undTechniken für Explainable AI (erklärbare KI) können Experten und Benutzern helfen, die Prozesse und Outputs generativer Modelle zu verstehen und ihnen zu vertrauen.

Auch das Bewerten und Vergleichen der Qualität generierter Inhalte kann eine Herausforderung sein. Herkömmliche Bewertungsmetriken erfassen möglicherweise nicht die differenzierten Aspekte von Kreativität, Kohärenz oder Relevanz. Die Entwicklung robuster und zuverlässiger Bewertungsmethoden für generative KI ist nach wie vor ein Forschungsgebiet, das aktiv weiterverfolgt wird.

Bedrohungen für Sicherheit, Datenschutz und geistiges Eigentum

Generative KI-Modelle können genutzt werden, um überzeugende Phishing -E-Mails, gefälschte Identitäten oder andere bösartige Inhalte zu generieren, die Benutzer zu Aktionen verleiten können, welche die Sicherheit und den Datenschutz gefährden. Entwickler und Benutzer müssen darauf achten, dass die Daten, die in das Modell eingegeben werden (und zwar sowohl während der Optimierung als auch als Teil eines Prompts), nicht ihr eigenes geistiges Eigentum oder Informationen offenlegen, die von anderen Unternehmen als geistiges Eigentum geschützt sind. Und sie müssen die Ausgaben auf neue Inhalte überwachen, die ihr eigenes geistiges Eigentum offenlegen oder den Schutz des geistigen Eigentums anderer verletzen.

Deepfakes

Deepfakes sind von der künstlichen Intelligenz generierte oder manipulierte Bilder, Videos oder Audiodateien, die erstellt werden, um Menschen vorzutäuschen, dass sie jemanden sehen, beobachten oder hören, der etwas tut oder sagt, was diese Person jedoch nie getan oder gesagt hat. Sie sind eines der beunruhigsten Beispiele dafür, wie die Möglichkeiten der generativen KI in böswilliger Absicht eingesetzt werden können.

Die meisten Menschen sind mit Deepfakes vertraut, die erstellt werden, um die Reputation zu schädigen oder Fehlinformationen zu verbreiten. In jüngster Zeit haben Cyberkriminelle Deepfakes allerdings auch als Teil von Cyberangriffen (z. B. gefälschte Stimmen bei Voice-Phishing-Scams) oder Finanzbetrug eingesetzt.

Forscher arbeiten intensiv an KI-Modellen, die Deepfakes mit höherer Genauigkeit erkennen können. In der Zwischenzeit können die Aufklärung der Benutzer und Best Practices (z. B. kein unbestätigtes oder ungeprüftes umstrittenes Material zu teilen) dazu beitragen, den Schaden zu begrenzen, den Deepfakes anrichten können.

Die neuesten Tech-News – von Experten bestätigt

Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und darüber hinaus auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Eine kurze Geschichte der generativen KI

Der Begriff „generative KI“ ist in den 2020er-Jahren explosionsartig ins öffentliche Bewusstsein gerückt, wobei die generative KI jedoch bereits seit Jahrzehnten Teil unseres Lebens ist. Die heutige Technologie der generativen KI basiert auf Durchbrüchen im Bereich des maschinellen Lernens, die bis ins frühe 20. Jahrhundert zurückreichen. Die folgenden Daten geben einen kurzen – nicht vollständigen – Überblick über die Geschichte der generativen KI:

  • 1964: Der MIT-Informatiker Joseph Weizenbaum entwickelt ELIZA, eine textbasierte Anwendung zur Verarbeitung natürlicher Sprache. ELIZA war im Grunde der erste Chatbot (damals noch „Chatterbot“ genannt), der mithilfe von Pattern-Matching-Skripten auf Eingaben in natürlicher Sprache mit empathischen Textantworten reagierte.
     

  • 1999: Nvidia veröffentlicht GeoForce, die erste grafische Verarbeitungseinheit (Graphical Processing Unit, GPU). GPUs wurden ursprünglich entwickelt, um flüssig laufende Grafiken für Videospiele ohne Ruckeln bereitzustellen. Inzwischen sind sie die Defacto-Plattform für die Entwicklung von KI-Modellen und das Mining von Kryptowährungen geworden.
     

  • 2004: Die Autovervollständigung von Google taucht zum ersten Mal auf und generiert mögliche nächste Wörter oder Phrasen, wenn Benutzer ihre Suchbegriffe eingeben. Das relativ moderne Beispiel für generative KI basiert auf einer Markov-Kette, einem mathematischen Modell, das 1906 entwickelt wurde.
     

  • 2013: Die ersten Variational Autoencoder (VAEs) werden eingeführt.
     

  • 2014: Die ersten Generative Adversarial Networks (GANs) und Diffusionsmodelle werden eingeführt.
     

  • 2017: Ashish Vaswani, ein Team bei Google Brain und eine Gruppe der Universität Toronto veröffentlichen „Attention is All You Need“, ein Paper, das die Prinzipien von Transformer-Modellen dokumentiert, die allgemein als die leistungsstärksten Foundation Models und Tools für generative KI gelten, die heute entwickelt werden.
     

  • 2019–2020: OpenAI führt seine großen Sprachmodelle GPT (Generative Pretrained Transformer), GPT-2 und GPT-3 ein.
     

  • 2022: OpenAI stellt ChatGPT vor, ein Frontend für GPT-3, das komplexe, kohärente und kontextbezogene Sätze und langformatige Inhalte als Antwort auf den Prompt des Endbenutzers generiert.

Mit der zunehmenden Bekanntheit und Popularität von ChatGPT öffneten sich die Schleusen für Entwicklungen und Produktveröffentlichungen im Bereich der generativen KI in rasantem Tempo, einschließlich der Releases von Google Bard (jetzt Gemini), Microsoft Copilot, IBM watsonx.ai und Metas Open-Source-Sprachmodell Llama-2.

Mixture of Experts | Podcast

KI entschlüsseln: Wöchentlicher Nachrichtenüberblick

Schließen Sie sich unserer erstklassigen Expertenrunde aus Ingenieuren, Forschern, Produktführern und anderen an, die sich durch das KI-Rauschen kämpfen, um Ihnen die neuesten KI-Nachrichten und Erkenntnisse zu liefern.

Weiterführende Lösungen

Weiterführende Lösungen

IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Profitieren Sie von einem einheitlichen Zugriff auf Funktionen, die den gesamten Lebenszyklus der KI-Entwicklung abdecken. Erstellen Sie leistungsstarke KI-Lösungen mit benutzerfreundlichen Oberflächen, Workflows und Zugriff auf branchenübliche APIs und SDKs.

watsonx.ai erkunden Buchen Sie eine Live-Demo