Die Beschleunigung der KI-Integration in Ihrem Unternehmen kann zu einem positiven Geschäftswachstum führen. 90 % der KI-Initiativen von Unternehmen haben Schwierigkeiten, über die Teststufen hinaus zu verschieben. Organisationen entwickeln sich im Bereich Data Science weiter, schaffen es aber immer noch nicht, Advanced Analytics und KI/ML in die alltägliche Entscheidungsfindung in Echtzeit zu integrieren und zu skalieren – daher können sie den Nutzen von KI nicht ausschöpfen. Für die neue Welt der Remote-Arbeit ist eine beschleunigte digitale Transformation erforderlich, und KI/ML kann genutzt werden, um dies schneller zu erreichen. Und sie führen zu effizienteren Geschäftsabläufen, überzeugenderen Kundenerlebnissen und fundierteren Entscheidungen. Unternehmen können mit KI entlang der gesamten Wertschöpfungskette erhebliche Gewinne erzielen. Aber sie müssen dies von Anfang an richtig tun, sonst riskieren sie Geldstrafen, Fehler, fehlerhafte Ergebnisse und allgemeines Misstrauen seitens ihrer Geschäftsanwender und des Marktes.
Unternehmen, die KI strategisch skalieren, berichten von einer fast dreifach höheren Rendite aus KI-Investitionen im Vergleich zu Unternehmen, die isolierte Proof of Concepts verfolgen.
IBM Services verfügt über End-to-End-Funktionen, um den Wert von KI zu steigern. Fördern Sie nachhaltige unternehmensweite Innovationen mit skalierbaren KI/ML-Modellen, die umweltfreundlich, umsetzbar, wiederverwendbar und skalierbar sind und nicht nur einmalige wissenschaftliche Experimente darstellen. IBM Services for AI at Scale zielt darauf ab, aktuelle KI-Engagements und -Anwendungen auf eine unternehmensweite Infrastruktur auszuweiten. Es besteht aus mehreren Säulen, die das Gesamtangebot bilden:
Wir beginnen mit einer Vision, um vertrauenswürdige KI und Daten als Schlüsselkomponenten der Geschäftsstrategie für Wettbewerbsvorteile zu etablieren und zu skalieren. Wir stützen uns dabei auf einen Framework, um einen echten KI-Wert zu schaffen, dem Sie und Ihre Kunden vertrauen können.
Wir beraten Ihr Team und arbeiten eng mit ihm zusammen, um ein maßgeschneidertes Betriebsmodell zu entwickeln. Uns ist bewusst, dass jede Organisation anders ist und dass das, was für die eine funktioniert, nicht unbedingt für die andere funktioniert. Zum Beispiel ein föderiertes Modell statt eines nicht föderierten Modells. Wir arbeiten dann Seite an Seite mit Ihnen, um eine Pipeline von Initiativen zu entwickeln, die durch die Nutzung von KI-Assets durch skalierbare und vernetzte Teams einen messbaren Geschäftswert schaffen.
Wir unterstützen Sie bei der Technologieausrichtung für KI mit der Möglichkeit, neue KI- und ML-Anwendungen zu migrieren und zu entwickeln, indem wir ein Portfolio von KI-Produkten nutzen, die flexibel genug sind, um Daten für verschiedene Anwendungsfälle, Plattformen und Clouds zu sammeln, zu integrieren und zu verwalten.
Wir positionieren den KI-Betrieb als kritische Komponente und entscheidenden Teil der wiederholbaren, konsistenten und umfassenden Einführung von Data Science und KI-Modellen mit vier Hauptzielen: Entwicklung, Bereitstellung, Überwachung und Vertrauen.
Wir unterstützen die Entwicklung von Change Management zur Steigerung der KI-Einführungsrate mit minimalem Risiko durch die Etablierung eines aktiven Change Managements auf Unternehmensebene. Dieser Ansatz kann Hindernisse identifizieren und Wege aufzeigen, wie KI einen Mehrwert für Ihr Unternehmen schaffen kann.
Wir helfen dabei, die richtigen Fähigkeiten, Rollen und das richtige Team-Setup in der KI-Organisation auszuwählen, was für Reife und Skalierbarkeit unerlässlich ist.
Ein wichtiges Detail von IBM Services für KI im großen Maßstab ist, dass man nicht von vorne anfangen muss. IBM arbeitet mit Ihrer bestehenden Umgebung zusammen: Ihrer Automatisierung, Ihrer Governance und Ihrer Datenverwaltung. Der Kunde erhält volle Transparenz und Kontrolle über seine Workloads – unabhängig davon, wo diese ausgeführt werden – und generiert so einen echten Mehrwert für sein Unternehmen. Mit dem Ziel, die Einführungszeit und die Wertschöpfungszeit bei gleichzeitig minimiertem Risiko zu verkürzen, umfasst der Prozess von IBM einen vierphasigen Ansatz für die Implementierung von KI im großen Maßstab.
1. Bewertungsphase (4–6 Wochen): Kurzfristige Prüfung, Bewertung und Planung, um Lücken in den bestehenden Prozessen, Methoden und Werkzeugen zu identifizieren. Arbeiten Sie in enger Zusammenarbeit mit dem Kunden an der Umsetzung erster Lösungsansätze.
2. Entwurf und Etablierung (4–6 Wochen): Gemeinsamer Aufbau eines gemeinsamen Rahmens für den Aufbau, die Skalierung und die Wartung von KI. Richten Sie gemeinsam mit dem Kunden ein Framework für Skalierbarkeit ein, das auf der vorhandenen Umgebung basiert.
3. Übernahme (3–4 Monate): Arbeiten Sie gemeinsam an der Umsetzung der ersten Projekte. Pilotprojekt mit drei bis fünf MVPs auf Framework zur Feinanpassung; Finalisierung und Einrichtung von Architektur, Prozessen und Programm. Arbeiten Sie in enger Zusammenarbeit mit dem Kunden an der Umsetzung erster Lösungsansätze. IBM Garage: Mitgestalten, gemeinsam ausführen, kooperieren.
Skalierung (laufend): Aufbau eines Skalierungsteams, Verwaltung von maschinellem Lernen in der Produktion. Bieten Sie dem Kunden eine vollständig verwaltete KI als Service im gesamten Unternehmen, damit sich der Kunde auf die geschäftlichen Herausforderungen konzentrieren kann.
RAD-ML ist der Ansatz von IBM, ein Framework zur schnellen Beschleunigung der Produktionszeit von Data-Science-Anwendungen durch Automatisierung. Unterstützt durch die Rapid Asset Development – maschinelles Lernen (RAD-ML)-Methodik und andere IBM-Assets und -Beschleuniger bietet IBM Services for AI at Scale verantwortungsvolle, konsistente und dennoch innovative Frameworks, um Data Science zu nutzen und wiederholbare, wiederverwendbare, skalierbare und umsetzbare KI-/ML-Modelle zu erstellen. Das Angebot von IBM reduziert die Entwicklungszeit dieser Modelle radikal und etabliert Pipelines, um die Bereitstellung in der Produktion zu beschleunigen, während gleichzeitig die Effizienz der Datenwissenschaftler der Kunden gesteigert wird – sodass diese sich auf die Erreichung der erwarteten Geschäftsergebnisse konzentrieren und das tun können, was sie am besten können und am meisten Spaß macht.
IBM Services for AI at Scale ist ein „Consult-to-Operate“-Service, der eine Möglichkeit bietet, KI/ML-PoCs konsistent in die Produktion zu integrieren und zu skalieren sowie diese KI/ML-Modelle im Laufe der Zeit zu betreiben und zu verwalten. Assets, die mit den Richtlinien der RAD-ML-Methode entwickelt wurden, können leichter auf einer skalierbaren ML-Architektur bereitgestellt werden.
RAD-ML ist ein bewährtes Framework zur Entwicklung skalierbarer ML-Assets, definiert die Asset-Bereitschaft über funktionale und strategische Dimensionen hinweg und kann als Ausgangspunkt für jede KI/ML-Lösung dienen, sofern der Kunde kein gemeinsames Framework hat. Es kann für die Entwicklung von eigenständigen Data-Science-Assets oder von Modulen auf bestehenden Lösungen genutzt werden. Es ermöglicht die Erstellung von ML-Assets, die die drei Fähigkeiten (umsetzbar, wiederverwendbar und skalierbar) unter Verwendung der folgenden Schlüsselkonzepte erfüllen:
▪ Assets für maschinelles Lernen sollten in Geschäftsprozesse mit nachgewiesenem ROI integriert werden.
▪ML-Assets sollten flexibel an unterschiedliche Datenkontexte und Technologieinvestitionen angepasst werden können
▪ Assets für maschinelles Lernen sollten auf einem robusten Technologie- und Betriebsdesign basieren, das skaliert werden kann.
Branchen-Newsletter
Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Jedes RAD-ML-Projekt sollte in die bereits bestehende Client-Umgebung integriert werden. Außerdem sollten die Open-Source- und kostenlosen RAD-ML-Beschleuniger hinzugefügt werden: Brainstem, Dash-Blocks, Architektur und Dokumentenvorlagen. Um eine geeignete und standardisierte ML-Ops-Architektur zu definieren, muss eine detaillierte Übersicht der Zielkomponenten erstellt werden. Die Zielkomponenten werden mit der internen Infrastruktur und der Ausstattung der Werkzeuge abgestimmt.
IBM kann dieses gemeinsame Framework in praktisch jeder Cloud implementieren, auch in einer hybriden Multicloud-Umgebung. Im Folgenden ein Beispiel, wie IBM AWS-Tools nutzen kann, um eine ML-Pipeline zu erstellen.
AWS CodeCommit ersetzt ein herkömmliches git-Repository – dies ist der wesentliche Ort, an dem der gesamte verwendete Code eines Projekts gespeichert wird.
CodeBuild führt alle Unit- und Integrationstests durch und baut außerdem einen Tarball aus den angegebenen Python-Quellen, der später in einem Docker-Container bereitgestellt werden kann. CodeDeploy führt ein festgelegtes Bereitstellungsszenario aus, das z. B. den Docker-Container erstellen, ihn in ein Docker-Image-Repository verschieben und schließlich in eine Produktionsumgebung laden kann.
AWS ECR fungiert als Repository für alle Docker-Container, die in der oben erwähnten Pipeline erstellt werden. Es dient als Repository für Container, genauso wie CodeCommit als Repository für Konfigurationsdateien und Quellcode fungiert. Dies ist der Punkt, an dem AWS SageMaker nach einem bestimmten Docker-Image sucht, wenn ein Trainingsauftrag mit den entsprechenden Parametern von außen ausgelöst wird.
AWS SageMaker fungiert als Laufzeitumgebung für alle Trainingsjobs. AWS SageMaker kann über eine API/Python-Anbindung ausgelöst werden. Der Benutzer gibt an, welche Art von Modell ausgeführt werden soll und wo sich die jeweiligen Eingabe- und Ausgabedaten befinden. AWS SageMaker akzeptiert Docker-Images mit einem vordefinierten Einstiegspunkt, der den Trainingscode enthält. Es ist jedoch auch möglich, dort einen von TensorFlow/MXNext/ONNX definierten Job auszuführen. SageMaker bietet eine Benutzeroberfläche für die Verwaltung und ist als Managed Service flexibel skalierbar. Daher kann der Benutzer aus einer Vielzahl von Maschinen auswählen, die zum Trainieren eines bestimmten Modells verwendet werden. Mit AWS SageMaker kann auch Hyperparameter-Tuning durchgeführt werden, das ebenfalls über die API ausgelöst werden kann. Das Tool wählt automatisch die beste Kombination von Hyperparametern aus. Die Ergebnisse eines Durchlaufs können direkt in S3 oder sogar DynamoDB geschrieben werden.
AWS S3 fungiert als grundlegendes Dateisystem für Eingabe- und Ausgabedateien. S3 wird üblicherweise zum Speichern großer Trainingsdatendateien verwendet und kann auch zum Speichern serialisierter Modelle genutzt werden. AWS S3 ist nahtlos in SageMaker integrierbar.
AWS DynamoDB ist eine auf Schlüsselwerten basierende NoSQL-Datenbank, die vollständig von AWS verwaltet wird und bei Bedarf skaliert werden kann. Die Datenbank kann beispielsweise dazu verwendet werden, die KPIs eines Modelllaufs zu speichern, um die Modellleistung im Zeitverlauf zu verfolgen. Es wird außerdem genutzt, um Laufzeitinformationen und Leistungsmetadaten für einen Modelllauf zu integrieren. AWS DynamoDB lässt sich nahtlos in QuickSight integrieren, ein von AWS angebotenes Tool zur Datenvisualisierung.
AWS Elastic Inference ist eine EC2-Instanz auf Steroiden. Modelle, die in AWS SageMaker trainiert wurden, können auf einer EI-Instanz zur Vorhersage gehostet werden. Die zugrunde liegende(n) Maschine(n) können bei Bedarf skaliert werden.
Die Ethikfrage ist nicht nur ein Modellierungsproblem, sondern ein Geschäftsproblem. 60 % der Unternehmen sehen in der Einhaltung von Vorschriften eine Hürde für den Erfolg bei der Anwendung von KI, was zum Teil auf mangelndes Vertrauen und fehlendes Verständnis für das System zurückzuführen ist. IBM entwickelte einen dreigliedrigen Approach zur Förderung von Vertrauen, Transparenz und Fairness, um KI konsistent zu betreiben, zu warten und zu skalieren und gleichzeitig das Vertrauen zu erhalten und das Marken- und Reputationsrisiko zu reduzieren. IBM kann den Kunden bei der Schaffung einer Kultur für die Einführung und sichere Skalierung von KI, bei KI-Engineering durch forensische Tools, um Einblick in Blackbox-Algorithmen zu erhalten, und bei der Governance unterstützen, um sicherzustellen, dass die Entwicklung der Kultur gerecht wird. Im Zentrum der vertrauenswürdigen KI stehen die Telemetrie- und Forensik-Tools, die IBM in der Community für unsere Open Source und Linux-Grundlage als führend betrachtet.
IBM Services for AI at Scale basiert auf dem Open-Source-Toolkit von IBM Research, AI Fairness 360 und Factsheets. Entwickler können hochmoderne Codes und Datensätze zur Erkennung und Minderung von KI-Verzerrung teilen und empfangen. Diese Bemühungen von IBM Research führten uns auch zur Integration von IBM Watson OpenScale, einem kommerziellen Angebot, das für die Entwicklung KI-basierter Lösungen für Unternehmen zur erkennen, Verwaltung und Minderung von KI Verzerrung entwickelt wurde.