Künstliche Intelligenz (KI) ist eine Technologie, die es Computern und Maschinen ermöglicht, menschliches Lernen, Verständnis, Problemlösung, Entscheidungsfindung, Kreativität und Autonomie zu simulieren.
Anwendungen und Geräte, die mit KI ausgestattet sind, können Objekte wahrnehmen und identifizieren. Sie können die menschliche Sprache verstehen und darauf reagieren. Sie können aus neuen Informationen und Erfahrungen lernen. Sie können Benutzern und Experten detaillierte Empfehlungen geben. Sie können selbstständig handeln und machen menschliche Intelligenz oder Eingriffe überflüssig (ein klassisches Beispiel ist ein selbstfahrendes Auto).
Im Jahr 2024 konzentrieren sich die meisten Forscher und Anwender von KI – und die meisten KI-bezogenen Schlagzeilen – auf Durchbrüche bei der generativen KI , einer Technologie, die Texte, Bilder, Videos und andere Inhalte erstellen kann. Um generative KI vollständig zu verstehen, ist es wichtig, zunächst die Technologien zu verstehen, auf denen generative KI-Tools basieren: maschinelles Lernen (ML) und Deep Learning.
Branchen-Newsletter
Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
KI kann man sich vereinfacht als eine Reihe ineinander verschachtelter oder abgeleiteter Konzepte vorstellen, die im Laufe von mehr als 70 Jahren entstanden sind:
Unmittelbar unterhalb der KI befindet sich das maschinelle Lernen, bei dem Modelle erstellt werden, indem ein Algorithmus darauf trainiert wird, auf der Grundlage von Daten Vorhersagen oder Entscheidungen zu treffen. Maschinelles Lernen umfasst eine breite Palette von Techniken, die es Computern ermöglichen, aus Daten zu lernen und Schlussfolgerungen zu ziehen, ohne explizit für bestimmte Aufgaben programmiert zu sein.
Es gibt viele verschiedene Techniken oder Algorithmen des maschinellen Lernens, darunter lineare Regression, logistische Regression, Decision Trees, Random Forest, Support Vector Machines (SVMs), K-Nearest-Neighbor (KNN) und Clustering. Jeder dieser Ansätze ist für verschiedene Arten von Problemen und Daten geeignet.
Einer der beliebtesten Typen von Algorithmen für maschinelles Lernen ist jedoch das neuronale Netz (oder künstliche neuronale Netz). Neuronale Netze sind der Struktur und Funktion des menschlichen Gehirns nachempfunden. Ein neuronales Netz besteht aus miteinander verbundenen Schichten von Knoten (analog zu Neuronen), die zusammenarbeiten, um komplexe Daten zu verarbeiten und zu analysieren. Neuronale Netze eignen sich gut für Aufgaben, bei denen komplexe Muster und Beziehungen in großen Datenmengen identifiziert werden müssen.
Die einfachste Form des maschinellen Lernens wird als überwachtes Lernen bezeichnet. Dabei werden gekennzeichnete Datensätze verwendet, um Algorithmen zu trainieren, die Daten klassifizieren oder Ergebnisse genau vorhersagen können. Beim überwachten Lernen ordnen Menschen jedes Trainingsbeispiel einem Eingabe-Label zu. Ziel ist es, dass das Modell die Zuordnung zwischen Eingaben und Ausgaben in den Trainingsdaten erlernt, damit es die Labels neuer, unbekannter Daten vorhersagen kann.
Deep Learning ist ein Teilbereich des maschinellen Lernens, der mehrschichtige neuronale Netze (sogenannte tiefe neuronale Netze) verwendet, um die komplexen Entscheidungsstrukturen des menschlichen Gehirns genauer zu simulieren.
Tiefe neuronale Netze umfassen eine Eingabeebene, mindestens drei, aber in der Regel Hunderte von verborgenen Schichten und eine Ausgabeebene, im Gegensatz zu neuronalen Netzen, die in klassischen Modellen des maschinellen Lernens verwendet werden und in der Regel nur eine oder zwei verborgene Schichten aufweisen.
Diese mehreren Ebenen ermöglichen unüberwachtes Lernen: Sie können die Extraktion von Merkmalen aus großen, nicht gekennzeichneten und unstrukturierten Datensätzen automatisieren und ihre eigenen Vorhersagen darüber treffen, was die Daten darstellen.
Da für Deep Learning kein menschliches Eingreifen erforderlich ist, ermöglicht es maschinelles Lernen in großem Umfang. Es eignet sich gut für die Verarbeitung natürlicher Sprache (NLP), Computer Vision und andere Aufgaben, bei denen es um die schnelle und genaue Identifizierung komplexer Muster und Beziehungen in großen Datenmengen geht. Die meisten Anwendungen der künstlichen Intelligenz (KI) in unserem heutigen Leben basieren auf einer Form des Deep Learning.
Deep Learning ermöglicht außerdem:
Bei generativer KI handelt es sich um Deep-Learning-Modelle, die als Reaktion auf eine Eingabe oder einen Prompt eines Benutzers komplexe Originalinhalte erstellen können, z. B. Langtexte, hochwertige Bilder, realistische Videos oder Audiodateien und vieles mehr.
In hoher Qualität kodieren generative Modelle eine vereinfachte Darstellung ihrer Trainingsdaten und erstellen daraus ein neues Werk, das ähnlich ist, aber nicht identisch mit den ursprünglichen Daten.
Generative Modelle werden seit Jahren in Statistiken zur Analyse numerischer Daten verwendet. Aber im letzten Jahrzehnt haben sie sich weiterentwickelt und analysieren und generieren nun komplexere Typen von Daten. Diese Entwicklung fiel mit dem Aufkommen von drei hochentwickelten Typen von Deep-Learning-Modellen zusammen:
Im Allgemeinen umfasst generative KI drei Phase:
Generative KI beginnt mit einem „Foundation Model”. Dabei handelt es sich um ein Deep Learning-Modell, das als Grundlage für mehrere verschiedene Arten von generativen KI-Anwendungen dient.
Die gängigsten Foundation Models sind heute große Sprachmodelle (LLMs), die für Anwendungen zur Textgenerierung entwickelt wurden. Es gibt aber auch Foundation Models für die Generierung von Bildern, Videos, Ton oder Musik sowie multimodale Foundation Models, die mehrere Arten von Inhalten unterstützen.
Für die Erstellung eines Foundation Models trainieren Anwender einen Deep-Learning-Algorithmus mit riesigen Mengen relevanter, unstrukturierter, nicht gekennzeichneter Rohdaten, wie z. B. Terabytes oder Petabytes an Daten, Texten, Bildern oder Videos aus dem Internet. Das Training erzeugt ein neuronales Netz aus Milliarden von Parametern – verschlüsselte Darstellungen der Entitäten, Muster und Beziehungen in den Daten –, das als Reaktion auf Prompts selbstständig Inhalte generieren kann. Das ist das Foundation Model.
Dieser Trainingsprozess ist rechenintensiv, zeitaufwendig und teuer. Es erfordert Tausende von Grafikprozessoren (GPUs) in Clustern und eine wochenlange Verarbeitung, die in der Regel Millionen von Dollar kostet. Projekte für Foundation Models auf Open Source-Basis wie Llama-2 von Meta ermöglichen es Entwicklern von generativer KI, diesen Schritt und die damit verbundenen Kosten zu vermeiden.
Im nächsten Schritt muss das Modell für eine bestimmte Aufgabe der Inhaltserstellung abgestimmt werden. Dies kann auf verschiedene Weise geschehen, darunter:
Entwickler und Nutzer bewerten regelmäßig die Outputs ihrer Apps für generative KI und passen das Modell weiter an – manchmal sogar einmal pro Woche –, um die Genauigkeit oder Relevanz zu erhöhen. Im Gegensatz dazu wird das Foundation Model selbst viel seltener aktualisiert, vielleicht einmal pro Jahr oder alle 18 Monate.
Eine weitere Möglichkeit zur Verbesserung der Leistung einer generativen KI-App ist die „Retrieval Augmented Generation“ (RAG). Hierbei handelt es sich um eine Technik zur Erweiterung des Foundation Models, um relevante Quellen außerhalb der Trainingsdaten zu nutzen und die Parameter für eine höhere Genauigkeit oder Relevanz zu verfeinern.
KI bietet zahlreiche Vorteile in verschiedenen Branchen und Anwendungen.Zu den am häufigsten genannten Vorteilen gehören:
KI kann routinemäßige, sich wiederholende und oft mühsame Aufgaben automatisieren – einschließlich digitaler Aufgaben wie der Erfassung, Eingabe und Vorverarbeitung von Daten sowie physischer Aufgaben wie Lagerbestandsaufnahme und Fertigungsprozesse. Diese Automatisierung schafft Freiraum für eine kreativere Arbeit mit einem höheren Wertschöpfungsgrad.
Ob zur Entscheidungsunterstützung oder zur vollautomatischen Entscheidungsfindung – KI ermöglicht schnellere und genauere Vorhersagen und zuverlässige, datengestützte Entscheidungen. In Kombination mit Automatisierung ermöglicht KI es Unternehmen, Chancen zu nutzen und auf Krisen zu reagieren, sobald sie auftreten – und zwar in Echtzeit und ohne menschliches Eingreifen.
KI kann menschliche Fehler auf verschiedene Weise reduzieren, indem sie Menschen durch die richtigen Schritte eines Prozesses führt, potenzielle Fehler anzeigt, bevor sie auftreten, und Prozesse vollständig ohne menschliches Eingreifen automatisiert. Das ist besonders in Branchen wie dem Gesundheitswesen wichtig, in der beispielsweise KI-gesteuerte chirurgische Robotertechnik eine gleichbleibende Präzision ermöglicht.
Algorithmen für maschinelles Lernen können ihre Genauigkeit kontinuierlich verbessern und Fehler weiter reduzieren, wenn sie mit mehr Daten konfrontiert werden und aus Erfahrungen „lernen“.
KI ist dauerhaft aktiv, rund um die Uhr verfügbar und liefert jedes Mal eine gleichbleibende Leistung. Tools wie intelligente Chatbot oder virtuelle Assistenten können den Personalbedarf im Kundenservice oder Support verringern. In anderen Anwendungen – wie z. B. in der Materialverarbeitung oder in Produktionslinien – kann KI dazu beitragen, eine gleichbleibende Produktqualität und Produktionsleistung aufrechtzuerhalten, wenn sie zur Ausführung sich wiederholender oder aufwendiger Aufgaben eingesetzt wird.
Durch die Automatisierung gefährlicher Arbeiten (z. B. Kontrolle von Tieren, Arbeit mit Sprengstoffen, Tätigkeiten in der Tiefsee, in großen Höhen oder im Weltraum) kann KI die Notwendigkeit beseitigen, menschliche Arbeitskräfte dem Risiko von Verletzungen oder Schlimmerem auszusetzen. Obwohl sie noch nicht ausgereift sind, bieten selbstfahrende Autos und andere Fahrzeuge das Potenzial, das Verletzungsrisiko für die Insassen zu verringern.
Die realen Anwendungen von KI sind vielfältig. Hier ist nur eine kleine Auswahl von Anwendungsfällen aus verschiedenen Branchen, um das Potenzial zu veranschaulichen:
Unternehmen können KI-gestützte Chatbots und virtuelle Assistenten einsetzen, um Kundenanfragen, Support-Tickets und vieles mehr zu bearbeiten. Diese Tools nutzen die Verarbeitung natürlicher Sprache (NLP) und Funktionen der generativen KI, um Kundenfragen zum Bestellstatus, zu Produktdetails und zu Rückgaberichtlinien zu verstehen und zu beantworten.
Chatbots und virtuelle Assistenten ermöglichen einen ständig verfügbaren Support, bieten schnellere Antworten auf häufig gestellte Fragen (FAQs), entlasten menschliche Mitarbeiter, die sich auf anspruchsvollere Aufgaben konzentrieren können, und bieten Kunden einen schnelleren und konsistenteren Service.
Algorithmen für maschinelles Lernen und Deep Learning können Transaktionsmuster analysieren und Anomalien wie ungewöhnliche Ausgaben oder Anmeldeorte melden, die auf betrügerische Transaktionen hinweisen. So können Unternehmen schneller auf potenziellen Betrug reagieren und dessen Auswirkungen begrenzen, was ihnen und ihren Kunden mehr Sicherheit gibt.
Einzelhändler, Banken und andere Unternehmen mit Kundenkontakt können mit KI personalisierte Customer Experiences und Marketingkampagnen erstellen, die Kunden begeistern, den Umsatz steigern und Abwanderung verhindern. Auf der Grundlage von Daten aus der Kaufhistorie und dem Verhalten der Kunden können Deep Learning-Algorithmen Produkte und Dienstleistungen empfehlen, die Kunden wahrscheinlich wünschen. Zusätzlich lassen sogar personalisierte Texte und Sonderangebote für einzelne Kunden in Echtzeit erstellen.
KI-gestützte Rekrutierungsplattformen können die Rekrutierung optimieren, indem sie Lebensläufe überprüfen, Kandidaten mit Stellenbeschreibungen abgleichen und mithilfe von Videoanalysen sogar Vorgespräche führen. Diese und andere Tools sorgen dafür, den Berg an administrativem Papierkram, der mit der Auswahl einer großen Anzahl von Kandidaten verbunden ist, drastisch zu reduzieren. Sie können auch die Reaktionszeiten und die Zeit bis zur Einstellung reduzieren und so die Erfahrung für Bewerber verbessern, unabhängig davon, ob sie die Stelle bekommen oder nicht.
Tools zur Codegenerierung und Automatisierung mit generativer KI können sich wiederholende Codierungsaufgaben im Zusammenhang mit der Anwendungsentwicklung optimieren und die Migration und Modernisierung (Neuformatierung und Replatforming) von Altanwendungen im großen Maßstab beschleunigen. Diese Tools können Aufgaben beschleunigen, die Konsistenz des Codes sicherstellen und Fehler reduzieren.
Modelle für maschinelles Lernen analysieren Daten von Sensoren, Geräten des Internets der Dinge (IoT) und der Betriebstechnologie (OT), um erforderliche Wartungsarbeiten und Geräteausfälle rechtzeitig vorherzusagen. Eine KI-gestützte vorbeugende Wartung hilft dabei, Ausfallzeiten zu vermeiden, und ermöglicht es Ihnen, Problemen in der Lieferkette einen Schritt voraus zu sein, bevor sie sich auf das Endergebnis auswirken.
Unternehmen bemühen sich, die neuesten KI-Technologien zu nutzen und von den vielen Vorteilen der KI zu profitieren. Diese schnelle Einführung ist notwendig, aber gleichzeitig ist die Einführung und Aufrechterhaltung von KI-Workflows mit Herausforderungen und Risiken verbunden.
KI-Systeme stützen sich auf Datensätze, die anfällig für Datenverfälschung, Datenmanipulation, Datenverzerrung oder Cyberangriffe sein können, die zu Datenschutzverletzungen führen können. Unternehmen können diese Risiken mindern, indem sie die Integrität, Vertraulichkeit und Verfügbarkeit von Daten während des gesamten KI-Lebenszyklus schützen, von der Entwicklung über die Schulung bis zur Bereitstellung und danach.
Bedrohungsakteure können KI-Modelle für Diebstahl, Reverse Engineering oder unbefugte Manipulation ins Visier nehmen. Angreifer könnten die Integrität eines Modells gefährden, indem sie die Architektur, die Gewichtungen oder die Parameter manipulieren – die Kernkomponenten, die das Verhalten, die Genauigkeit und die Leistung eines KI-Modells bestimmen.
Wie alle Technologien sind auch Modelle anfällig für operationelle Risiken wie Modellabweichungen, Verzerrungen und Ausfälle in der Governance-Struktur. Wenn diese Risiken nicht berücksichtigt werden, können sie zu Systemausfällen und Cybersicherheitslücken führen, die von Bedrohungsakteuren ausgenutzt werden können.
Wenn Unternehmen bei der Entwicklung und Bereitstellung von KI-Systemen nicht auf Sicherheit und Ethik achten, riskieren sie Datenschutzverletzungen und verzerrte Ergebnisse. Zum Beispiel könnten verzerrte Trainingsdaten, die für Einstellungsentscheidungen verwendet werden, Diskriminierung aufgrund von Geschlecht oder Ethnie verstärken und KI-Modelle schaffen, die bestimmte demografische Gruppen gegenüber anderen bevorzugen.
KI-Ethik ist ein multidisziplinäres Fachgebiet, das untersucht, wie die positiven Auswirkungen von KI optimiert und gleichzeitig Risiken und negative Folgen reduziert werden können. Die ethischen Grundsätze der KI werden durch ein System der KI-Governance angewendet, das aus Leitplanken besteht, die dazu beitragen, dass KI-Tools und -Systeme sicher und ethisch vertretbar bleiben.
Die KI-Governance umfasst Aufsichtsmechanismen, die Risiken angehen. Ein ethischer Ansatz für die KI-Governance erfordert die Einbeziehung eines breiten Spektrums von Stakeholdern, einschließlich Entwicklern, Nutzern, politischen Entscheidungsträgern und Ethikern, um sicherzustellen, dass KI-bezogene Systeme im Einklang mit den Werten der Gesellschaft entwickelt und genutzt werden.
Die folgenden Werte stehen im Zusammenhang mit KI-Ethik und verantwortungsvoller KI:
Mit zunehmender Weiterentwicklung der KI steht der Mensch vor der Herausforderung, den Weg, auf dem der Algorithmus zu einem Ergebnis gekommen ist, zu verstehen und nachzuvollziehen. Erklärbare KI bezeichnet eine Reihe von Prozessen und Methoden, anhand derer menschliche Benutzer die von Algorithmen erstellten Ergebnisse und Ausgaben interpretieren, verstehen und ihnen vertrauen können.
Obwohl das maschinelle Lernen von Haus aus eine Form der statistischen Diskriminierung ist, wird diese Diskriminierung dann verwerflich, wenn sie privilegierte Gruppen systematisch begünstigt und bestimmte nicht privilegierte Gruppen systematisch benachteiligt, was zu vielfältigen Nachteilen führen kann. Um Fairness zu fördern, können Anwender versuchen, algorithmische Verzerrungen bei der Datenerfassung und dem Modelldesign zu minimieren und vielfältigere und inklusivere Teams aufzubauen.
Robuste KI bewältigt effektiv außergewöhnliche Bedingungen, wie z. B. Anomalien bei der Eingabe oder böswillige Angriffe, ohne unbeabsichtigten Schaden zu verursachen. Sie ist außerdem so konzipiert, dass sie vorsätzlichen und unbeabsichtigten Eingriffen standhält, indem sie vor exponierten Schwachstellen schützt.
Unternehmen sollten klare Verantwortlichkeiten und Governance-Strukturen
für Entwicklung, Bereitstellung und Ergebnisse von KI-Systemen implementieren.
Darüber hinaus sollten Nutzer in der Lage sein, zu sehen, wie ein KI-Dienst funktioniert,
seine Funktionalität zu bewerten und seine Stärken und
Grenzen zu verstehen. Durch die erhöhte Transparenz erhalten
KI-Nutzer Informationen, die ihnen ein besseres Verständnis der Erstellung des KI-Modells oder -Dienstes ermöglichen.
Viele regulatorische Frameworks – einschließlich der DSGVO – schreiben vor, dass Unternehmen bei der Verarbeitung personenbezogener Daten bestimmte Datenschutzgrundsätze einhalten müssen. Es ist von entscheidender Bedeutung, KI-Modelle, die möglicherweise personenbezogene Daten enthalten, schützen zu können, zu kontrollieren, welche Daten überhaupt in das Modell einfließen, und anpassungsfähige Systeme zu entwickeln, die sich an Änderungen der Vorschriften und Einstellungen in Bezug auf die KI-Ethik anpassen können.
Um den Einsatz von KI auf verschiedenen Komplexitäts- und Entwicklungsstufen zu kontextualisieren, haben Forscher mehrere Typen von KI definiert, die sich auf den Entwicklungsstand beziehen:
Schwache KI: Auch als „enge KI“ bekannt, bezeichnet dies KI-Systeme, die für die Ausführung einer bestimmten Aufgabe oder einer Reihe von Aufgaben entwickelt wurden. Beispiele hierfür sind „intelligente“ Sprachassistenten-Apps wie Alexa von Amazon, Siri von Apple, ein Social-Media-Chatbot oder die von Tesla versprochenen autonomen Fahrzeuge.
Starke KI: Auch bekannt als „künstliche allgemeine Intelligenz“ (AGI) oder „allgemeine KI“, besitzt sie die Fähigkeit, Wissen über ein breites Spektrum von Aufgaben hinweg zu verstehen, zu erlernen und anzuwenden. Und das geschieht auf einem Niveau, das der menschlichen Intelligenz entspricht oder sie übertrifft. Dieses Level der KI ist derzeit noch theoretisch und kein bekanntes KI-System erreicht diese Stufe der Komplexität. Forscher argumentieren, dass, wenn AGI überhaupt möglich ist, die Rechenleistung erheblich gesteigert werden muss. Trotz der jüngsten Fortschritte in der KI-Entwicklung bleiben selbstbewusste KI-Systeme im Bereich der Science-Fiction.
Die Idee einer „Maschine, die denkt“ geht auf das antike Griechenland zurück. Aber seit dem Aufkommen der elektronischen Datenverarbeitung (und in Bezug auf einige der in diesem Artikel behandelten Themen) kam es in der Entwicklung der künstlichen Intelligenz zu folgenden wichtigen Ereignissen und Meilensteinen:
1950
Alan Turing veröffentlicht Computing Machinery and Intelligence. Darin stellt Turing – berühmt für die Entschlüsselung des deutschen ENIGMA-Codes während des Zweiten Weltkriegs und oft als „Vater der Informatik“ bezeichnet – die folgende Frage: „Können Maschinen denken?“
Basierend auf dieser Frage bietet er einen Test an, der heute als „Turing-Test“ bekannt ist und bei dem ein menschlicher Fragesteller versucht, zwischen einer Computer- und einer menschlichen Textantwort zu unterscheiden. Obwohl dieser Test seit seiner Veröffentlichung viel Kritik ausgesetzt war, bleibt er ein wichtiger Teil der Geschichte der KI und ein fortwährendes Konzept in der Philosophie, da er Ideen rund um die Linguistik verwendet.
1956
John McCarthy prägt auf der allerersten KI-Konferenz am Dartmouth College den Begriff „künstliche Intelligenz“. (McCarthy erfand später die Sprache LISP.) Später im selben Jahr entwickeln Allen Newell, J.C. Shaw und Herbert Simon den Logic Theorist, das allererste laufende KI-Softwareprogramm.
1967
Frank Rosenblatt baut den Mark 1 Perceptron, den ersten Computer, der auf einem neuronalen Netzwerk basiert und durch Versuch und Irrtum „gelernt“ hat. Nur ein Jahr später veröffentlichen Marvin Minsky und Seymour Papert ein Buch mit dem Titel „Perceptrons”, das sowohl zum Meilenstein der Arbeit über neuronale Netzwerke als auch, zumindest für eine Weile, zum Argument gegen künftige Forschungsprojekte zu neuronalen Netzen wird.
1980
Neuronale Netze, die einen Backpropagation-Algorithmus verwenden, um sich selbst zu trainieren, werden in KI-Anwendungen weithin eingesetzt.
1995
Stuart Russell und Peter Norvig veröffentlichen Artificial Intelligence: A Modern Approach, das zu einem der führenden Lehrbücher für das Studium der KI wird. Darin befassen sie sich mit vier möglichen Zielen oder Definitionen von KI, die Computersysteme anhand von Rationalität und Denken vs. Handeln unterscheiden.
1997
Deep Blue von IBM schlägt den damaligen Schachweltmeister Garry Kasparov in einem Schachmatch (und Rematch).
2004
John McCarthy schreibt einen Aufsatz mit dem Titel Was ist Künstliche Intelligenz? und schlägt eine oft zitierte Definition von KI vor. Zu diesem Zeitpunkt hat das Zeitalter von Big Data und Cloud Computing bereits begonnen. Unternehmen können immer größere Datensätze verwalten, die eines Tages für das Training von KI-Modellen verwendet werden.
2011
IBM Watson schlägt die Champions Ken Jennings und Brad Rutter bei Jeopardy! Etwa zu dieser Zeit entwickelt sich auch die Data Science zu einer beliebten Disziplin.
2015
Der Supercomputer Minwa von Baidu verwendet ein spezielle tiefes neuronales Netz, ein sogenanntes Convolutional Neural Network, um Bilder mit einer höheren Genauigkeit zu identifizieren und zu kategorisieren als der durchschnittliche Mensch.
2016
Das Programm AlphaGo von DeepMind, das auf einem tiefen neuronalen Netz basiert, besiegt Lee Sodol, den Go-Weltmeister, in einem Fünf-Spiele-Match. Der Sieg ist angesichts der riesigen Anzahl möglicher Züge im Verlauf des Spiels (über 14,5 Billionen nach nur vier Zügen) von großer Bedeutung. Später kaufte Google DeepMind für angeblich 400 Millionen US-Dollar.
2022
Die Zunahme großer Sprachmodelle (LLMs) wie ChatGPT führt zu einer enormen Veränderung in der Leistung von KI und ihrem Potenzial, den Unternehmenswert zu steigern. Mit diesen neuen generativen KI-Praktiken können Deep-Learning-Modelle vorab mit riesigen Mengen an Daten trainiert werden.
2024
Die neuesten KI-Trends deuten auf eine anhaltende KI-Renaissance hin. Multimodale Modelle, die mehrere Datentypen als Eingaben verwenden können, bieten reichhaltigere und robustere Erfahrungen. Diese Modelle vereinen die Funktionen der Bilderkennung durch Computer Vision und der Spracherkennung durch NLP. Kleinere Modelle machen auch im Zeitalter sinkender Renditen mit massiven Modellen mit großen Parameterzahlen Fortschritte.
Wir haben 2.000 Unternehmen zu ihren KI-Initiativen befragt, um herauszufinden, was funktioniert, was nicht und wie Sie vorankommen können.
IBM® Granite ist unsere Familie offener, leistungsfähiger und vertrauenswürdiger KI-Modelle, die auf Unternehmen zugeschnitten und für die Skalierung Ihrer KI-Anwendungen optimiert sind. Entdecken Sie die Optionen zu Sprache, Code, Zeitreihen und Guardrails.
Greifen Sie auf unseren vollständigen Katalog mit über 100 Online-Kursen zu, indem Sie noch heute ein Abonnement für Einzel- oder Mehrbenutzer erwerben, mit dem Sie Ihre Fähigkeiten in einer Reihe unserer Produkte zu einem günstigen Preis erweitern können.
Das Programm, das von führenden IBM Experten geleitet wird, soll Führungskräften dabei helfen, das nötige Wissen zu erwerben, um die Prioritäten für KI-Investitionen zu setzen, die zu mehr Wachstum führen.
Möchten Sie eine bessere Rendite für Ihre KI-Investitionen erzielen? Erfahren Sie, wie die Skalierung generativer KI in Schlüsselbereichen Veränderungen vorantreibt, indem Sie Ihre besten Köpfe dabei unterstützen, innovative neue Lösungen zu entwickeln und bereitzustellen.
Erfahren Sie, wie Sie generative KI und maschinelles Lernen sicher in Ihr Unternehmen integrieren können.
Erfahren Sie mehr über die drei entscheidenden Elemente einer starken KI-Strategie: die Schaffung eines Wettbewerbsvorteils, die Skalierung von KI im gesamten Unternehmen und die Förderung vertrauenswürdiger KI.