KI in großem Maßstab

Draufsicht auf ein großes, geschäftiges Bürogebäude mit zwei Reihen von Mitarbeitern, die an Desktop-Computern arbeiten

Die Beschleunigung der KI-Integration in Ihrem Unternehmen kann zu einem positiven Geschäftswachstum führen. 90 % der KI-Initiativen von Unternehmen haben Schwierigkeiten, über die Teststufen hinaus zu verschieben. Organisationen entwickeln sich im Bereich Data Science weiter, schaffen es aber immer noch nicht, Advanced Analytics und KI/ML in die alltägliche Entscheidungsfindung in Echtzeit zu integrieren und zu skalieren – daher können sie den Nutzen von KI nicht ausschöpfen. Für die neue Welt der Remote-Arbeit ist eine beschleunigte digitale Transformation erforderlich, und KI/ML kann genutzt werden, um dies schneller zu erreichen. Und sie führen zu effizienteren Geschäftsabläufen, überzeugenderen Kundenerlebnissen und fundierteren Entscheidungen. Unternehmen können mit KI entlang der gesamten Wertschöpfungskette erhebliche Gewinne erzielen. Aber sie müssen dies von Anfang an richtig tun, sonst riskieren sie Geldstrafen, Fehler, fehlerhafte Ergebnisse und allgemeines Misstrauen seitens ihrer Geschäftsanwender und des Marktes.

Unternehmen, die KI strategisch skalieren, berichten von einer fast dreifach höheren Rendite aus KI-Investitionen im Vergleich zu Unternehmen, die isolierte Proof of Concepts verfolgen.

Vergleichende Illustration der Skalierung von KI innerhalb der Unternehmens

Skalierung von KI im Unternehmen:

IBMs Methodik

IBM Services verfügt über End-to-End-Funktionen, um den Wert von KI zu steigern. Fördern Sie nachhaltige unternehmensweite Innovationen mit skalierbaren KI/ML-Modellen, die umweltfreundlich, umsetzbar, wiederverwendbar und skalierbar sind und nicht nur einmalige wissenschaftliche Experimente darstellen. IBM Services for AI at Scale zielt darauf ab, aktuelle KI-Engagements und -Anwendungen auf eine unternehmensweite Infrastruktur auszuweiten. Es besteht aus mehreren Säulen, die das Gesamtangebot bilden:

Vision

Wir beginnen mit einer Vision, um vertrauenswürdige KI und Daten als Schlüsselkomponenten der Geschäftsstrategie für Wettbewerbsvorteile zu etablieren und zu skalieren. Wir stützen uns dabei auf einen Framework, um einen echten KI-Wert zu schaffen, dem Sie und Ihre Kunden vertrauen können.

Betriebsmodell

Wir beraten Ihr Team und arbeiten eng mit ihm zusammen, um ein maßgeschneidertes Betriebsmodell zu entwickeln. Uns ist bewusst, dass jede Organisation anders ist und dass das, was für die eine funktioniert, nicht unbedingt für die andere funktioniert. Zum Beispiel ein föderiertes Modell statt eines nicht föderierten Modells. Wir arbeiten dann Seite an Seite mit Ihnen, um eine Pipeline von Initiativen zu entwickeln, die durch die Nutzung von KI-Assets durch skalierbare und vernetzte Teams einen messbaren Geschäftswert schaffen.

Daten

Wir unterstützen Sie bei der Technologieausrichtung für KI mit der Möglichkeit, neue KI- und ML-Anwendungen zu migrieren und zu entwickeln, indem wir ein Portfolio von KI-Produkten nutzen, die flexibel genug sind, um Daten für verschiedene Anwendungsfälle, Plattformen und Clouds zu sammeln, zu integrieren und zu verwalten.

Technik und Betrieb

Wir positionieren den KI-Betrieb als kritische Komponente und entscheidenden Teil der wiederholbaren, konsistenten und umfassenden Einführung von Data Science und KI-Modellen mit vier Hauptzielen: Entwicklung, Bereitstellung, Überwachung und Vertrauen.

Illustration von Technik und Betrieb

Change Management

Wir unterstützen die Entwicklung von Change Management zur Steigerung der KI-Einführungsrate mit minimalem Risiko durch die Etablierung eines aktiven Change Managements auf Unternehmensebene. Dieser Ansatz kann Hindernisse identifizieren und Wege aufzeigen, wie KI einen Mehrwert für Ihr Unternehmen schaffen kann.

Menschen und Enablement

Wir helfen dabei, die richtigen Fähigkeiten, Rollen und das richtige Team-Setup in der KI-Organisation auszuwählen, was für Reife und Skalierbarkeit unerlässlich ist.

Der Ansatz von IBM zur KI-Implementierung in großem Maßstab

Ein wichtiges Detail von IBM Services für KI im großen Maßstab ist, dass man nicht von vorne anfangen muss. IBM arbeitet mit Ihrer bestehenden Umgebung zusammen: Ihrer Automatisierung, Ihrer Governance und Ihrer Datenverwaltung. Der Kunde erhält volle Transparenz und Kontrolle über seine Workloads – unabhängig davon, wo diese ausgeführt werden – und generiert so einen echten Mehrwert für sein Unternehmen. Mit dem Ziel, die Einführungszeit und die Wertschöpfungszeit bei gleichzeitig minimiertem Risiko zu verkürzen, umfasst der Prozess von IBM einen vierphasigen Ansatz für die Implementierung von KI im großen Maßstab.

1. Bewertungsphase (4–6 Wochen): Kurzfristige Prüfung, Bewertung und Planung, um Lücken in den bestehenden Prozessen, Methoden und Werkzeugen zu identifizieren. Arbeiten Sie in enger Zusammenarbeit mit dem Kunden an der Umsetzung erster Lösungsansätze.

Diagramm des Ansatzes von IBMs zur Implementierung von KI in großem Maßstab – Bewertungsphase

2. Entwurf und Etablierung (4–6 Wochen): Gemeinsamer Aufbau eines gemeinsamen Rahmens für den Aufbau, die Skalierung und die Wartung von KI. Richten Sie gemeinsam mit dem Kunden ein Framework für Skalierbarkeit ein, das auf der vorhandenen Umgebung basiert.

Diagramm des IBM Ansatzes zur Implementierung von KI in großem Maßstab – Entwurf und Etablierung

3. Übernahme (3–4 Monate): Arbeiten Sie gemeinsam an der Umsetzung der ersten Projekte. Pilotprojekt mit drei bis fünf MVPs auf Framework zur Feinanpassung; Finalisierung und Einrichtung von Architektur, Prozessen und Programm. Arbeiten Sie in enger Zusammenarbeit mit dem Kunden an der Umsetzung erster Lösungsansätze. IBM Garage: Mitgestalten, gemeinsam ausführen, kooperieren.

Diagramm des IBM Ansatzes zur Implementierung von KI in großem Maßstab – Übernahme

Skalierung (laufend): Aufbau eines Skalierungsteams, Verwaltung von maschinellem Lernen in der Produktion. Bieten Sie dem Kunden eine vollständig verwaltete KI als Service im gesamten Unternehmen, damit sich der Kunde auf die geschäftlichen Herausforderungen konzentrieren kann.

RAD-ML

RAD-ML ist der Ansatz von IBM, ein Framework zur schnellen Beschleunigung der Produktionszeit von Data-Science-Anwendungen durch Automatisierung. Unterstützt durch die Rapid Asset Development – maschinelles Lernen (RAD-ML)-Methodik und andere IBM-Assets und -Beschleuniger bietet IBM Services for AI at Scale verantwortungsvolle, konsistente und dennoch innovative Frameworks, um Data Science zu nutzen und wiederholbare, wiederverwendbare, skalierbare und umsetzbare KI-/ML-Modelle zu erstellen. Das Angebot von IBM reduziert die Entwicklungszeit dieser Modelle radikal und etabliert Pipelines, um die Bereitstellung in der Produktion zu beschleunigen, während gleichzeitig die Effizienz der Datenwissenschaftler der Kunden gesteigert wird – sodass diese sich auf die Erreichung der erwarteten Geschäftsergebnisse konzentrieren und das tun können, was sie am besten können und am meisten Spaß macht.

IBM Services for AI at Scale ist ein „Consult-to-Operate“-Service, der eine Möglichkeit bietet, KI/ML-PoCs konsistent in die Produktion zu integrieren und zu skalieren sowie diese KI/ML-Modelle im Laufe der Zeit zu betreiben und zu verwalten. Assets, die mit den Richtlinien der RAD-ML-Methode entwickelt wurden, können leichter auf einer skalierbaren ML-Architektur bereitgestellt werden.

RAD-ML ist ein bewährtes Framework zur Entwicklung skalierbarer ML-Assets, definiert die Asset-Bereitschaft über funktionale und strategische Dimensionen hinweg und kann als Ausgangspunkt für jede KI/ML-Lösung dienen, sofern der Kunde kein gemeinsames Framework hat. Es kann für die Entwicklung von eigenständigen Data-Science-Assets oder von Modulen auf bestehenden Lösungen genutzt werden. Es ermöglicht die Erstellung von ML-Assets, die die drei Fähigkeiten (umsetzbar, wiederverwendbar und skalierbar) unter Verwendung der folgenden Schlüsselkonzepte erfüllen:

▪ Assets für maschinelles Lernen sollten in Geschäftsprozesse mit nachgewiesenem ROI integriert werden.

▪ML-Assets sollten flexibel an unterschiedliche Datenkontexte und Technologieinvestitionen angepasst werden können

▪ Assets für maschinelles Lernen sollten auf einem robusten Technologie- und Betriebsdesign basieren, das skaliert werden kann.

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Überlegungen zur Werkzeugauswahl für RAD-ML

Jedes RAD-ML-Projekt sollte in die bereits bestehende Client-Umgebung integriert werden. Außerdem sollten die Open-Source- und kostenlosen RAD-ML-Beschleuniger hinzugefügt werden: Brainstem, Dash-Blocks, Architektur und Dokumentenvorlagen. Um eine geeignete und standardisierte ML-Ops-Architektur zu definieren, muss eine detaillierte Übersicht der Zielkomponenten erstellt werden. Die Zielkomponenten werden mit der internen Infrastruktur und der Ausstattung der Werkzeuge abgestimmt.

Überlegungen zur Werkzeugauswahl für RAD-ML-Diagramme

AWS-Pipeline für maschinelles Lernen mit agnostischer Architektur

IBM kann dieses gemeinsame Framework in praktisch jeder Cloud implementieren, auch in einer hybriden Multicloud-Umgebung. Im Folgenden ein Beispiel, wie IBM AWS-Tools nutzen kann, um eine ML-Pipeline zu erstellen.

Diagramm des IBM Ansatzes zur Implementierung von KI in großem Maßstab – Entwurf und Etablierung

CodeCommit

AWS CodeCommit ersetzt ein herkömmliches git-Repository – dies ist der wesentliche Ort, an dem der gesamte verwendete Code eines Projekts gespeichert wird.

AI Academy

KI-Experte werden

Erlangen Sie das nötige Wissen, um KI-Investitionen zu priorisieren, die das Unternehmenswachstum vorantreiben. Starten Sie noch heute mit unserer kostenlosen AI Academy und gestalten Sie die Zukunft der KI in Ihrem Unternehmen.

CodeDeploy/CodeBuild

CodeBuild führt alle Unit- und Integrationstests durch und baut außerdem einen Tarball aus den angegebenen Python-Quellen, der später in einem Docker-Container bereitgestellt werden kann. CodeDeploy führt ein festgelegtes Bereitstellungsszenario aus, das z. B. den Docker-Container erstellen, ihn in ein Docker-Image-Repository verschieben und schließlich in eine Produktionsumgebung laden kann.

AWS ECR

AWS ECR fungiert als Repository für alle Docker-Container, die in der oben erwähnten Pipeline erstellt werden. Es dient als Repository für Container, genauso wie CodeCommit als Repository für Konfigurationsdateien und Quellcode fungiert. Dies ist der Punkt, an dem AWS SageMaker nach einem bestimmten Docker-Image sucht, wenn ein Trainingsauftrag mit den entsprechenden Parametern von außen ausgelöst wird.

AWS SageMaker

AWS SageMaker fungiert als Laufzeitumgebung für alle Trainingsjobs. AWS SageMaker kann über eine API/Python-Anbindung ausgelöst werden. Der Benutzer gibt an, welche Art von Modell ausgeführt werden soll und wo sich die jeweiligen Eingabe- und Ausgabedaten befinden. AWS SageMaker akzeptiert Docker-Images mit einem vordefinierten Einstiegspunkt, der den Trainingscode enthält. Es ist jedoch auch möglich, dort einen von TensorFlow/MXNext/ONNX definierten Job auszuführen. SageMaker bietet eine Benutzeroberfläche für die Verwaltung und ist als Managed Service flexibel skalierbar. Daher kann der Benutzer aus einer Vielzahl von Maschinen auswählen, die zum Trainieren eines bestimmten Modells verwendet werden. Mit AWS SageMaker kann auch Hyperparameter-Tuning durchgeführt werden, das ebenfalls über die API ausgelöst werden kann. Das Tool wählt automatisch die beste Kombination von Hyperparametern aus. Die Ergebnisse eines Durchlaufs können direkt in S3 oder sogar DynamoDB geschrieben werden.

AWS S3

AWS S3 fungiert als grundlegendes Dateisystem für Eingabe- und Ausgabedateien. S3 wird üblicherweise zum Speichern großer Trainingsdatendateien verwendet und kann auch zum Speichern serialisierter Modelle genutzt werden. AWS S3 ist nahtlos in SageMaker integrierbar.

AWS DynamoDB

AWS DynamoDB ist eine auf Schlüsselwerten basierende NoSQL-Datenbank, die vollständig von AWS verwaltet wird und bei Bedarf skaliert werden kann. Die Datenbank kann beispielsweise dazu verwendet werden, die KPIs eines Modelllaufs zu speichern, um die Modellleistung im Zeitverlauf zu verfolgen. Es wird außerdem genutzt, um Laufzeitinformationen und Leistungsmetadaten für einen Modelllauf zu integrieren. AWS DynamoDB lässt sich nahtlos in QuickSight integrieren, ein von AWS angebotenes Tool zur Datenvisualisierung.

AWS Elastic Inference

AWS Elastic Inference ist eine EC2-Instanz auf Steroiden. Modelle, die in AWS SageMaker trainiert wurden, können auf einer EI-Instanz zur Vorhersage gehostet werden. Die zugrunde liegende(n) Maschine(n) können bei Bedarf skaliert werden.

Entwicklung vertrauenswürdiger KI

Die Ethikfrage ist nicht nur ein Modellierungsproblem, sondern ein Geschäftsproblem. 60 % der Unternehmen sehen in der Einhaltung von Vorschriften eine Hürde für den Erfolg bei der Anwendung von KI, was zum Teil auf mangelndes Vertrauen und fehlendes Verständnis für das System zurückzuführen ist. IBM entwickelte einen dreigliedrigen Approach zur Förderung von Vertrauen, Transparenz und Fairness, um KI konsistent zu betreiben, zu warten und zu skalieren und gleichzeitig das Vertrauen zu erhalten und das Marken- und Reputationsrisiko zu reduzieren. IBM kann den Kunden bei der Schaffung einer Kultur für die Einführung und sichere Skalierung von KI, bei KI-Engineering durch forensische Tools, um Einblick in Blackbox-Algorithmen zu erhalten, und bei der Governance unterstützen, um sicherzustellen, dass die Entwicklung der Kultur gerecht wird. Im Zentrum der vertrauenswürdigen KI stehen die Telemetrie- und Forensik-Tools, die IBM in der Community für unsere Open Source und Linux-Grundlage als führend betrachtet.

IBM Services for AI at Scale basiert auf dem Open-Source-Toolkit von IBM Research, AI Fairness 360 und Factsheets. Entwickler können hochmoderne Codes und Datensätze zur Erkennung und Minderung von KI-Verzerrung teilen und empfangen. Diese Bemühungen von IBM Research führten uns auch zur Integration von IBM Watson OpenScale, einem kommerziellen Angebot, das für die Entwicklung KI-basierter Lösungen für Unternehmen zur erkennen, Verwaltung und Minderung von KI Verzerrung entwickelt wurde.

Venn-Diagramm der Stichpunkte zur Entwicklung vertrauenswürdiger KI

Das Wertversprechen von IBM

Diagramme zur Veranschaulichung des Wertversprechens von IBM
Weiterführende Lösungen
IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

watsonx.ai erkunden
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein
– mit branchenführendem Fachwissen im Bereich KI und dem umfassenden Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
Beratung und Services zu künstlicher Intelligenz (KI)

Die KI-Services von IBM Consulting unterstützen Sie dabei, die Art und Weise, wie Unternehmen mit KI arbeiten, neu zu denken.

KI-Services entdecken
Machen Sie den nächsten Schritt

Mithilfe von KI liefert IBM Concert wichtige Erkenntnisse über Ihre Abläufe und gibt anwendungsspezifische Empfehlungen zur Verbesserung. Entdecken Sie, wie Concert Ihr Unternehmen voranbringen kann.

Entdecken Sie Concert Erkunden Sie Lösungen zur Geschäftsprozessautomatisierung