Wie der Name schon sagt, generieren KI-Modelle Text, Bilder, Code oder andere Antworten auf der Grundlage eines Prompts eines Benutzers. Unternehmen, die sie richtig einsetzen, können eine Vielzahl von Vorteilen sehen – von einer höheren betrieblichen Effizienz und verbesserter Entscheidungsfindung bis hin zur schnellen Erstellung von Marketinginhalten. Aber was ermöglicht die generative Funktionalität dieser Modelle – und letztendlich ihren Nutzen für das Unternehmen?
An dieser Stelle kommt das Foundation Model ins Spiel. Es ist die zugrunde liegende Technologie, die generativen Modellen die erweiterten Argumentations- und Deep-Learning-Fähigkeiten verleiht, die traditionellen maschinellen Lernmodellen fehlen. Zusammen mit Datenspeichern ermöglichen Fundamentmodelle die Erstellung und Anpassung generativer KI-Tools für Unternehmen aus allen Branchen, die Kundenbetreuung, Marketing, Personalwesen (einschließlich Talentgewinnung) und IT-Funktionen optimieren möchten.
Auch als Transformator bekannt, ist ein Foundation Model ein KI-Algorithmus, der auf riesigen Datenmengen trainiert wird. Der Begriff „Foundation Model“ wurde 2021 vom Stanford Institute for Human-Centered Artificial Intelligence geprägt.
Ein Foundation Model basiert auf einer neuronalen Netzmodellarchitektur, um Informationen ähnlich wie das menschliche Gehirn zu verarbeiten. Foundation Models können darauf trainiert werden, Aufgaben wie die Datenklassifizierung, die Identifizierung von Objekten in Bildern (Computer Vision) und die Verarbeitung natürlicher Sprache (NLP) (Textverständnis und -generierung) mit einem hohen Grad an Genauigkeit auszuführen. Sie können auch selbstüberwachtes Lernen durchführen, um ihr Wissen zu verallgemeinern und auf neue Aufgaben anzuwenden.
Anstatt Zeit und Mühe in das Training eines Modells von Grund auf zu investieren, können Datenwissenschaftler vortrainierte Foundation Models als Ausgangspunkt für die Erstellung oder Anpassung generativer KI-Modelle für einen bestimmten Anwendungsfall verwenden. Ein Foundation Model könnte zum Beispiel als Grundlage für ein generatives KI-Modell verwendet werden, das dann mit weiteren Datensätzen verfeinert wird, um sicherere und schnellere Wege zur Herstellung eines Produkttyps zu finden.
Eine spezielle Art von Foundation Model, das als großes Sprachmodell (Large Language Model, LLM) bezeichnet wird, wird anhand von riesigen Mengen von Textdaten für NLP-Aufgaben trainiert. BERT (Bi-directional Encoder Representations from Transformers) ist eines der frühesten entwickelten LLM-Foundation-Models. Google hat BERT als Open-Source-Modell im Jahr 2018 entwickelt. Es wurde mit einem großen Korpus von Daten in englischer Sprache mit Selbstüberwachung vortrainiert und kann für eine Vielzahl von Aufgaben verwendet werden, wie zum Beispiel:
Ein für generative KI verwendetes Foundation Model unterscheidet sich von einem herkömmlichen Modell für maschinelles Lernen dadurch, dass es auf großen Mengen von Daten ohne Kennzeichnung trainiert werden kann, um Anwendungen zu unterstützen, die Inhalte generieren oder Aufgaben ausführen.
Inzwischen wird ein traditionelles maschinelles Lernmodell typischerweise so trainiert, dass es eine einzelne Aufgabe mit gekennzeichneten Daten ausführt, z. B. anhand von gekennzeichneten Bildern von Autos, um das Modell so zu schulen, dass es dann Autos in nicht gekennzeichneten Bildern erkennt.
watsonx.ai Studio von IBM ist eine Suite von Sprach- und Code-Foundation-Models, die jeweils einen geologischen Codenamen haben und für eine Reihe von Unternehmensaufgaben angepasst werden können. Alle watsonx.ai-Modelle werden auf dem von IBM kuratierten und auf Unternehmen ausgerichteten Data Lake trainiert.
Slate bezieht sich auf eine Familie von reinen Encoder-Modellen, die zwar nicht generativ sind, aber für viele NLP-Aufgaben in Unternehmen schnell und effektiv sind.
Die Granite-Modelle basieren auf einer GPT-ähnlichen Architektur für generative Aufgaben, die nur aus Decodern besteht.
Sandstone-Modelle verwenden eine Encoder-Decoder-Architektur und eignen sich gut für die Feinabstimmung für spezifische Aufgaben.
Obsidian-Modelle nutzen eine neue modulare Architektur, die von IBM Research entwickelt wurde und eine hohe Inferenzleistung und ein hohes Leistungsniveau für eine Vielzahl von Aufgaben bietet.
Ohne sicheren Zugriff auf vertrauenswürdiges und Fachwissen wären Foundation Models für KI-Anwendungen in Unternehmen weit weniger zuverlässig und vorteilhaft. Glücklicherweise dienen Datenspeicher als sichere Datenspeicher und ermöglichen Foundation Models, sowohl in Bezug auf ihre Größe als auch auf die der Trainingsdaten zu skalieren.
Datenspeicher, die für geschäftsorientierte generative KI geeignet sind, basieren auf einer offenen Data Lake-Architektur, die die Qualitäten eines Data Lake und eines Data Warehouse kombiniert. Diese Architektur bietet Einsparungen durch kostengünstige Objektspeicherung und ermöglicht die gemeinsame Nutzung großer Datenmengen durch offene Tabellenformate wie Apache Iceberg, die für Hochleistungsanalysen und die Verarbeitung großer Datenmengen entwickelt wurden.
Foundation-Modelle können sehr große Mengen fachspezifischer Daten in einem skalierbaren, kostengünstigen Container abfragen. Und da diese Art von Datenspeichern in Kombination mit der Cloud eine praktisch unbegrenzte Skalierbarkeit ermöglichen, werden die Wissenslücken eines Foundation Models im Laufe der Zeit durch das Hinzufügen weiterer Daten verringert oder sogar beseitigt. Je mehr Lücken geschlossen werden, desto verlässlicher wird ein Foundation Model und desto größer ist seine Reichweite.
Datenspeicher bieten Data Scientists ein Repository, das sie nutzen können, um die Daten zu sammeln und zu bereinigen, die zum Trainieren und zur Feinabstimmung von Foundation Models verwendet werden. Und Datenspeicher, die von Cloud- und Hybrid-Cloud-Infrastrukturen von Drittanbietern profitieren, sind entscheidend für die Kosteneffizienz von generativer KI.
Wenn Foundation Models auf Informationen aus verschiedenen Datenspeichern zugreifen und die Art und Weise, wie sie diese Informationen zur Ausführung verschiedener Aufgaben und zur Generierung von Antworten nutzen, fein abgestimmt ist, können die daraus resultierenden generativen KI-Tools Unternehmen dabei helfen, folgende Vorteile zu erzielen:
Data Scientist können vortrainierte Modelle verwenden, um AI-Tools in einer Reihe von geschäftskritischen Situationen effizient bereitstellen.
Entwickler können mithilfe von KI-Tools, die benutzerdefinierte Codeschnipsel generieren, schneller schreiben, testen und dokumentieren.
Führungskräfte können KI-generierte Zusammenfassungen umfangreicher Berichte erhalten, während neue Mitarbeiter kurze Versionen von Einführungsunterlagen und anderen Materialien erhalten.
Unternehmen können generative KI-Tools für die Automatisierung verschiedener Aufgaben nutzen, darunter:
Marketingteams können mit generativen KI-Tools Inhalte zu einer Vielzahl von Themen erstellen. Sie können auch Marketingmaterialien schnell und präzise in mehrere Sprachen übersetzen.
Führungskräfte und andere Beteiligte können KI-gestützte Analysen durchführen, um große Mengen unstrukturierter Daten zu interpretieren und so ein besseres Verständnis des Marktes, der Stimmungslage im Unternehmen usw. zu gewinnen.
Um Unternehmen dabei zu helfen, die Wirkung von KI in ihrem Unternehmen zu multiplizieren, bietet IBM watsonx, unser Portfolio an KI-Produkten, an. Das Portfolio umfasst drei leistungsstarke Produkte:
Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.
Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.
Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.