Die Implementierung generativer KI erinnert an das Henne-Ei-Problem: In einer aktuellen Umfrage des IBM Institute for Business Value gaben 64 % der CEOs an, dass sie Apps modernisieren müssten, bevor sie generative KI einsetzen könnten. Gleichzeitig ist generative KI durch Code-Reverse-Engineering, Code-Generierung, Code-Konvertierung von einer Sprache in eine andere, die Definition des Modernisierungsworkflows und andere automatisierte Prozesse in der Lage, den Prozess der Anwendungsmodernisierung zu transformieren. Hier erfahren Sie, wie CTOs und CIOs ihre Technologie und Datenbestände bewerten, die Chancen einschätzen und einen Weg nach vorne planen können.
CIOs und CTOs müssen:
In den letzten zehn Jahren hat IBM erfolgreich eine Hybrid Cloud-Strategie eingesetzt, um skalierbare KI-gestützte Innovation, Produktivität und Effizienz zu unterstützen. Aus unserer Sicht ist die Debatte über Architektur vorbei. Unternehmen, die Hybrid Cloud erfolgreich einsetzen, sind gut positioniert, um generative KI im gesamten Unternehmen zu implementieren. Die Hybrid Cloud ermöglicht es ihnen, von leistungsstarken Open-Source-Sprachmodellen zu profitieren, öffentliche Daten und Ressourcen zu nutzen, um ihre eigenen Modelle zu schulen und ihre Modelle durch Feinabstimmung sicher anzupassen, während ihre proprietären Erkenntnisse privat bleiben. Generative KI auf Hybrid Cloud bietet nicht nur einen enormen Mehrwert für das Kunden- und Mitarbeitererlebnis, die Personalabteilung und den Kundenservice, sondern bietet CIOs und CTOs auch eine außergewöhnliche Flexibilität bei der Automatisierung des IT-Betriebs und der Modernisierung von Anwendungen, wodurch technische Schulden eliminiert und eine wirklich kontinuierliche Modernisierung ermöglicht werden kann.
Selbst für CIOs und CTOs, die sich für die Hybrid Cloud entschieden haben, gibt es weiterhin organisatorische Hindernisse für die Modernisierung. Zunächst müssen Führungskräfte im Bereich Technologie die gesamten finanziellen Auswirkungen der Modernisierung (im Vergleich zu den Kosten einer Nichtmodernisierung) im Unternehmen abschätzen. Sie müssen die Modernisierung als Unternehmensinitiative, nicht als IT-Projekt, betrachten. Führungskräfte müssen auch die Expertise-Lücke schließen, indem sie der Talententwicklung Priorität einräumen und kulturelle Akzeptanz für die Modernisierung als strategische, zukunftssichere Unternehmensinvestition und nicht als operative Technologie schaffen.
Als Nächstes müssen Führungskräfte verstehen, welchen geschäftlichen Nutzen generative KI für die Modernisierung hat, um zu erkennen, wo sie investieren sollten. Nach der Erfahrung unserer IBM Consulting-Teams benötigen Unternehmen, die ge rade erst mit ihrer Modernisierung beginnen, einen Einblick in die „Kunst des Möglichen“, wenn es darum geht, die Vorteile und den Wert der KI-gesteuerten Automatisierung zu verstehen. Unternehmen, die auf ihrem Weg bereits weiter fortgeschritten sind, möchten sich einen Überblick über Anwendungsfall in ihrer Branche verschaffen und wissen, wie sie einzigartige Chancen nutzen können.
Innerhalb des IT-Betriebs umfassen generative KI-Anwendungsfälle die automatische Triage von Systemen zur Einhaltung von Service-Level-Zielen; Verwaltung, Kommunikation, Hilfeleistung und Lösung von Fragen und Tickets; sowie die Erkennung und Verwaltung von Ereignissen und Anomalien. Sie kann die IT-Automatisierung verbessern, indem sie Runbooks erstellt und ausführt und Benutzern bei der Umstellung auf neue Wissensdatenbanken und Software hilft. Sie kann auch bei der Platform Engineering helfen, z. B. durch die Generierung von DevOps-Pipelines und Automatisierungsskripts.
Über den IT-Betrieb als Grundlage der Modernisierung lässt sich natürlich noch viel mehr sagen. Hier konzentrieren wir uns vor allem auf vier Workflows, auf die generative KI angewendet werden kann.
CTOs/CIOs sollten die schnellen Erfolge durch den Einsatz generativer KI in diesen Funktionen berücksichtigen. Suchen Sie nach relativ diskreten und risikoarmen Möglichkeiten, Proof-of-Concept-Implementierungen zu erkunden. Klein anfangen, testen und skalieren.
Die Auswahl der richtigen Basismodelle im Voraus kann Ihnen helfen, genauere und effizientere Ergebnisse für Ihr Unternehmen zu erzielen.
Die Architektur von Transformern begünstigt die Größe: Größere Modelle liefern bessere Ergebnisse. In der generativen KI herrscht also ein Wettlauf um die Entwicklung immer größerer Foundation Models für immer umfassendere Anwendungen. Auch wenn die größten Modelle leistungsstark sind, ist ein umfangreiches Modell mit mehreren Milliarden Parametern nicht immer die beste Option für ein Unternehmen. Ein kleineres Modell, das für eine Aufgabe optimiert wurde, kann häufig ein großes Modell übertreffen, das nicht für diese Aufgabe optimiert wurde. Diese Modelle können auf allgemein verwendbaren LLMs mit geringfügigen Anpassungen laufen, sofern die zugrundeliegende Basis für den Unternehmenseinsatz geeignet ist. Die Granite Foundation Models von IBM mit 13 Mrd. Parametern, die in der kommenden Version von watsonx.ai verfügbar sind, sind beispielsweise viel kleiner als die größten LLMs (die Hunderte Mrd. Parameter enthalten), aber bei geschäftsspezifischen Aufgaben wie der Zusammenfassung, Beantwortung von Fragen und Klassifizierung und gut funktionieren und viel effizienter sind.
Zweckorientierte Foundation Models ermöglichen es Unternehmen außerdem, die Modernisierung zu automatisieren und zu beschleunigen, indem Code-Snippets und Anwendungskomponenten generiert und Anwendungstests automatisiert werden. Mithilfe der in watsonx.ai integrierten Code-Modelle kann IBM® watsonx Code Assistant kann auch zum Konvertieren von Code verwendet werden, z. B.von COBOL in Java. Mit watsonx Code Assistant können Entwickler aller Erfahrungsniveaus Anfragen in einfacher Sprache formulieren und KI-generierte Empfehlungen erhalten, oder Code auf der Grundlage von vorhandenem Quellcode generieren. watsonx.ai beinhaltet auch den Zugriff auf das StarCoder LLM, das auf offen lizenzierten Daten von GitHub trainiert wurde. Entwickler können StarCoder nutzen, um die Codegenerierung zu beschleunigen und die Produktivität bei der Anwendungsmodernisierung und IT-Modernisierung zu steigern.
Abgesehen von der Größe sollten CTOs bei der Auswahl eines Foundation Models auch die natürlichen Sprachen und Programmiersprachen berücksichtigen, die das Modell unterstützt, und den Umfang der Feinabstimmung, die das Modell benötigt.
Im Bereich der generativen KI sind die Methoden zur Berechnung des ROI nicht ausgereift oder standardisiert, und es gibt auch keine vergleichbaren Benchmarks. Bei Unternehmensanwendungen erfordern die Feinabstimmung, das Prompt Engineering und die Ausführung von rechenintensiven Workloads erhebliche Investitionen.
Bei der Auswahl und Bereitstellung eines Modells, das je nach Domäne, Branchen und Anwendungsfall variieren wird, sind vier Schlüsselfaktoren zu berücksichtigen. Der erste Kostenfaktor ist die Preisgestaltung bzw. die Lizenzierungsmethode. Dies wird anhand der API-Nutzung in Public und Managed Clouds sowie anhand der Hosting- und Rechenkosten für Hybrid und Private Clouds bewertet. Der zweite Kostenfaktor ist der Entwicklungsaufwand, der auf Private Cloud und Hybrid-Clouds höher ist und eng mit dem dritten Faktor, der Datensicherheit, zusammenhängt. Berücksichtigen Sie schließlich die potenziellen Auswirkungen von IP- und Sicherheitsrisiken, die sowohl am hybriden als auch am privaten Ende der Skala geringer sind.
Faktoren der Datenverfügbarkeit und der Governance werden ebenfalls bei der Bewertung des ROI berücksichtigt. Durch das KI-Produktportfolio von watsonx macht IBM erhebliche Fortschritte bei der Bereitstellung von Foundation Models, die auf die Bedürfnisse von Geschäftsanwendern zugeschnitten sind: der zweckmäßige Datenspeicher, der in watsonx.data bereitgestellt wird, und auf einer offenen Lakehouse-Architektur basiert, ermöglicht Unternehmen, ihre Modelle zu personalisieren, unabhängig davon, wo sich ihre Workload befinden. Mit den Tools in watsonx.governance können Unternehmen verantwortungsvolle, transparente und erklärbare Workflows im gesamten Unternehmen effizient gestalten.
In einer Zeit, in der die Funktionen und Einsatzmöglichkeiten generativer KI immer schneller zunehmen, kann es eine Herausforderung darstellen, die Nutzen-Seite der ROI-Gleichung in Zahlen zu fassen. Für CIOs und CTOs ist es jedoch sinnvoll, die vielen Möglichkeiten zu untersuchen, mit denen Unternehmen durch traditionelle KI einen geschäftlichen Mehrwert geschaffen haben und den potenziellen Wert aus ihren Testfällen und Quick Wins generativer KI zu extrapolieren.
Ob im Rahmen formeller ESG-Programme oder der Mission des Unternehmens: Nachhaltigkeit ist mehr als nur gute Ethik – sie wird zunehmend als bessere Wirtschaft anerkannt. Unternehmen, die sich engagiert und effektiv um Nachhaltigkeit bemühen, können den Unternehmenswert durch verbesserte Aktienrendite, Umsatzwachstum und Rentabilität steigern. Daher ist es ratsam, dass CTOs die Nachhaltigkeit bei der Einführung generativer KI auch rechnerisch berücksichtigen.
Das Training, die Feinabstimmung und der Betrieb von KI-Modellen können einen enormen CO2-Fußabdruck hinterlassen. Deshalb hilft IBM dabei, generative KI für Unternehmen zuzuschneiden – mit Basismodellen, die vertrauenswürdig, portabel und energieeffizient sind. Durch die Erstellung kleinerer Modelle und eine effizientere Nutzung der Computerressourcen können Kosten und CO2-Emissionen erheblich gesenkt werden. IBM Research entwickelt aktuell zudem effizientere Technologien für das Modelltraining, wie den LiGo-Algorithmus, der kleine Modelle recycelt und in größere Modelle umbaut, wodurch bis zu 70 % der Zeit, der Kosten und des CO2-Ausstoßes eingespart werden.
Letztendlich hängt die effektive Implementierung generativer KI von qualifizierten und enthusiastischen Mitarbeitern ab. Somit sollten die Personalabteilungen im Mittelpunkt der Strategie Ihres Unternehmens stehen. Beginnen Sie damit, die HR-Fachkräfte selbst umzuschulen, die wahrscheinlich bereits KI-gestützte Einstellungstools nutzen. Entwickeln Sie als Nächstes eine formelle Managementinitiative, um zu kommunizieren, wo generative KI getestet und eingeführt wird, und um Feedback zu geben.