8 Minuten
Wenn die meisten Menschen den Begriff „Mainframe“ hören, sind sie sich möglicherweise nicht des wichtigen Beitrags zur Innovation im Unternehmen bewusst. Bei all der Aufregung um generative KI kann man leicht annehmen, dass alte IT-Infrastrukturen, wie z. B. Mainframes, noch nicht mit von der Sache gegangen sind.
Die Wahrheit ist, dass der Mainframe eine entscheidende Rolle bei der Förderung von Innovation spielen wird, indem er KI-Beschleunigungstechnologien der nächsten Generation mit einem optimierten Ökosystem integriert, um die Funktionen zu verbessern.
Wenn wir zurückblicken, wird deutlich, dass der Mainframe seit mehr als 60 Jahren ein ständiger Innovationstreiber ist. Laut einem aktuellen Bericht des IBM Institute for Business Value nutzen 43 der 50 größten Banken der Welt und 8 der zehn größten Zahlungsunternehmen den Mainframe als ihre Kernplattform.
Für Branchen, die riesige Datenmengen verarbeiten – wie das Finanzwesen, das Gesundheitswesen und die Regierung – haben Mainframes an Bedeutung für Strategien der künstlichen Intelligenz (KI) gewonnen. Aus demselben IBV-Bericht geht sogar hervor, dass 79 % der IT-Führungskräfte der Meinung sind, dass Mainframes für die Ermöglichung einer KI-gestützten Innovation und Wertschöpfung unerlässlich sind.
Gleichzeitig suchen diese Führungskräfte nach Möglichkeiten, KI in bestehende Mainframe-Plattformen zu integrieren, um wertvolle Erkenntnisse zu gewinnen, Aufgaben zu automatisieren und die Effizienz zu steigern und gleichzeitig ihre strategische Infrastruktur zu bewahren. Dieser Ansatz maximiert den Wert von Altlasten, während neue Funktionen durch KI-gestützte Analysen und Automatisierung eingeführt werden.
Viele der heutigen KI-Implementierungen erfordern, dass Unternehmen ihre Daten in die Cloud verschieben. Für Branchen, die bei der Verarbeitung hochsensibler Daten auf Hochgeschwindigkeitsdatenverarbeitung angewiesen sind, bietet es jedoch erhebliche geschäftliche Vorteile, wenn die KI-Funktionen näher am Speicherort der Daten liegen.
„Es geht darum, KI dorthin zu bringen, wo die Musik spielt, und das geschieht in zwei Hauptbereichen“, sagt Khadja Souissi, Principal Solution Architect, KI auf IBM Z und LinuxONE und Distinguished Technical Specialist bei IBM.
„Wir integrieren KI in transaktionale Workloads, um Echtzeit-Erkenntnisse in Geschäftsanwendungen zu erhalten, eine schnellere Entscheidungsfindung zu ermöglichen und Kunden nachhaltig intelligente Anwendungen zu entwickeln, die generative KI-Lösungen nutzen und vertrauliche Daten schützen. Darüber hinaus entwickeln wir intelligente Infrastrukturen, die KI für Mainframe-Betriebssysteme und Subsysteme einsetzen. Dies könnte dabei helfen, anstehende Workloads vorherzusagen, um die erforderlichen Ressourcen proaktiv vorzubereiten, und auch Anomalien im Systembetrieb zu erkennen, die bei der Vorhersage von Ausfällen und der Gewinnung umsetzbarer Erkenntnisse in Bezug auf die Leistung helfen könnten.
Mainframes verarbeiten fast 70 % der weltweiten IT-Produktions-Workloads und sind für ihre Stabilität, hohe Sicherheit und Skalierbarkeit bekannt. Heute können KI-Beschleuniger auf dem Chip Millionen von Inferenzanfragen pro Sekunde mit sehr geringer Latenz skalieren und verarbeiten. Diese Fähigkeit ermöglicht es Unternehmen, Daten und Transaktionsgravitation zu nutzen, indem große Datensätze, KI und kritische Geschäftsanwendungen strategisch zusammengeführt werden. In Zukunft werden Beschleuniger der nächsten Generation neue Möglichkeiten eröffnen, um die KI-Funktionen und Anwendungsfälle zu erweitern, wenn die Anforderungen eines Unternehmens wachsen.
Traditionelle KI- und generative KI-Modelle tragen dazu bei, das moderne Unternehmen zu definieren und zu gestalten. Für geschäftskritische und transaktionale Anwendungsfälle sind maschinelles Lernen, Deep Learning und KI-Funktionen erforderlich, die manchmal in einer Ensemble-Architektur zusammenarbeiten, um bessere Geschäftsergebnisse zu erzielen.
Auf dem Mainframe nutzt eine Architektur mit mehreren Modellen die Stärken jedes dieser verschiedenen Modelle und ermöglicht so eine robustere, präzisere und flexiblere Entscheidungsfindung.
Betrachten wir zunächst die konventionelle KI: Diese Modelle wenden im Allgemeinen vordefinierte Regeln an, um Daten zu analysieren und Entscheidungen auf der Grundlage bestimmter Muster zu treffen. Beispiele hierfür sind Prognosen für Bestand oder Kreditentscheidungen auf der Grundlage der historischen Daten eines Kunden.
Die Entwicklung der KI ist geprägt von neuen Konzepten wie großen Sprachmodellen (LLMs)– fortschrittlichen KI-Modellen, die anhand riesiger Datenmengen trainiert wurden und natürliche Sprache verstehen, menschenähnlichen Text generieren, Übersetzen, Fragen beantworten, Code schreiben und sogar Gespräche führen können.
LLMs, die Inhalte generieren, werden üblicherweise als Decoder-Modelle bezeichnet und in der generativen KI verwendet. Diese Fähigkeit zeigt sich bei Chatbots, die personalisierte Antworten auf den Kundenservice geben, die auf Benutzeranfragen und Kontext basieren.
Encoder-Modelle sind eine weitere Art von LLM, die sich durch das Verstehen natürlicher Sprache und die Verarbeitung von unstrukturiertem Text auszeichnen, wobei der Schwerpunkt auf der Extraktion von wichtigen Informationen liegt. Decoder-Modelle teilen diese Funktion, zeichnen sich aber auch durch die Generierung neuer Inhalte aus.
Die Multi-Modell-Architektur ist ein hybrides Konzept, das verschiedene Technologien wie traditionelle KI und LLM-Encoder-Modelle integriert, um schnellere und genauere Ergebnisse zu liefern, als jedes einzelne Modell allein leisten kann, und nutzt dabei die enorme Rechenleistung und Datenspeicher-Funktionen des Mainframes.
Bei der Bearbeitung von Versicherungsansprüchen kann beispielsweise traditionelle KI eine erste Analyse strukturierter Daten durchführen, während Encoder-LLMs komplexere unstrukturierte Daten verarbeiten können, um detailliertere Einblicke zu gewinnen und den Schaden entsprechend zu adressieren.
Nehmen Sie einen Autounfallschaden auf. Traditionelle KI ermöglicht die automatisierte Verarbeitung strukturierter Daten (z. B. Polizeiberichte, Treiberlizenzen und Zulassungsinformationen). Die generative KI geht noch einen Schritt weiter, um Erkenntnisse aus unstrukturierten Daten (z. B. Text und Bilder zu Verletzungen und Fahrzeugschäden) zu gewinnen, um die Priorisierung und Dringlichkeit dieser Ansprüche zu unterstützen.
Vor Kurzem hat IBM den kommenden IBM Telum II Prozessor und IBM Spyre™ Accelerator angekündigt. Diese Technologien sollen Unternehmen dabei helfen, die Verarbeitungskapazität über IBM Z hinweg zu skalieren und die Nutzung traditioneller KI-Modelle, großer Sprach-KI-Modelle und Architekturen mit mehreren Modellen zu beschleunigen.
Die Spyre Accelerator-Karte ermöglicht es IBM Z- und LinuxONE-Systemen, KI-Inferencing für LLMs und generative KI in einem noch größeren Umfang als bisher möglich durchzuführen.
Hier sind vier Anwendungsbeispiele, die zeigen, wie Unternehmen diese KI-Technologien nutzen können, um geschäftliche Innovationen voranzutreiben, Abläufe zu verbessern und generative KI-Workloads zu beschleunigen.
Finanzielle Verluste durch betrügerische Kreditkartentransaktionen verursachen finanzielle Schäden und Reputationsschäden. Laut dem Nilson-Bericht werden die Kreditkartenverluste weltweit bis 2026 voraussichtlich 43 Milliarden US-Dollar erreichen.1
Eine interne IBM Fallstudie zeigte, dass eine große nordamerikanische Bank ein KI-gestütztes Kreditbewertungsmodell entwickelt und es auf einer lokalen Cloud-Plattform bereitgestellt hatte, um Betrug zu bekämpfen. Allerdings konnten nur 20 % der Kreditkartentransaktionen in Echtzeit erfasst werden. Die Bank beschloss, die komplexen Tools zur Betrugserkennung auf ihren Mainframe zu verschieben.
Nach der Mainframe-Implementierung begann die Bank, 100 % der Kreditkartentransaktionen in Echtzeit zu bewerten, mit 15.000 Transaktionen pro Sekunde, was eine erhebliche Betrugserkennung ermöglichte.
Außerdem benötigte jede Transaktion früher 80 Millisekunden, um gewertet zu werden. Mit der reduzierten Latenz, die der Mainframe bietet, liegen die Antwortzeiten jetzt bei 2 Millisekunden oder weniger. Dieser Verschiebevorgang auf den Mainframe hat der Bank zudem jährlich über 20 Millionen US-Dollar an Ausgaben für die Betrugsprävention eingespart, ohne dass dies Auswirkungen auf die Service-Level-Vereinbarungen hatte.
Der Mainframe ist bei Kreditkartentransaktionen von entscheidender Bedeutung und wickelt 90 % der Transaktionen weltweit ab.2 Jetzt können sich Finanzunternehmen weiterhin auf den Mainframe verlassen und gleichzeitig KI integrieren, um Betrug zu erkennen, bevor eine Transaktion abgeschlossen wird. Sie stützen sich dabei auf die großen Mengen an bereits dort gespeicherten Transaktionsdaten, anstatt sie in eine Cloud zu verschieben.
Laut Forbes belaufen sich die durchschnittlichen Kosten von IT-Ausfallzeiten für große Unternehmen auf bis zu 9.000 USD pro Minute und für Unternehmen mit höherem Risiko auf über 5 Millionen USD pro Stunde.3
Glücklicherweise können Organisationen jetzt KI einsetzen, um einen durch Equipment-Fehler verursachten Ausfall proaktiv zu verhindern oder sogar vorherzusagen. Durch die Anwendung von KI-Mechanismen können Unternehmen Anomalien auf Transaktions-, Anwendungs-, Subsystem- und Systemebene erkennen. Zum Beispiel können Sensoren Daten von Mainframe-Komponenten analysieren, um potenzielle Hardwareausfälle vorherzusagen und eine präventive Wartung zu ermöglichen.
Die Integration des Mainframes mit neuen Technologien wie Cloud und verteilten Systemen kann zu einer hohen Komplexität für IT-Infrastruktur- und Anwendungsteams führen. Unternehmen setzen zunehmend auf künstliche Intelligenz für den IT-Betrieb (AIOps)– die Anwendung von KI-Funktionen zur Automatisierung, Rationalisierung und Optimierung der IT-Infrastruktur und betrieblicher Workflows. AIOps ermöglicht es IT-Betriebsteams, schnell auf nachlassende Leistung und Betriebsunterbrechungen zu reagieren und so für mehr Transparenz und Kontext zu sorgen.
Datenschutz ist für Unternehmen, die mit sensiblen Daten umgehen, von größter Bedeutung. Dies ist ein Hauptgrund, warum Branchen, wie z. B. das Gesundheitswesen, weiterhin auf die robusten Sicherheitsfunktionen des Mainframes verlassen, einschließlich der Workload-Isolation, der Verschlüsselung und der sicheren Kommunikationsprotokolle.
Die Verarbeitung von Dokumenten auf dem Mainframe trägt zur Rationalisierung und zur Bereitstellung präziser Datenextraktionen in einer hochsicheren Umgebung bei. Unternehmen können gen KI nutzen, um Finanzdokumente und Geschäftsberichte zusammenzufassen, wichtige Datenpunkte zu extrahieren (z. B. finanzielle Metriken und Leistungsindikatoren) und wesentliche Informationen für Compliance-Prozesse zu identifizieren (z. B. Finanzaudits).
Ein weiteres Beispiel: Regierungen können mithilfe von KI die Zollkontrolle auf verdächtige Fracht verbessern. Dies geschieht durch den Einsatz ausgefeilter Bildverarbeitungstechniken und die Analyse der Textbeschreibungen jeder Sendung.
Eine der größten Herausforderungen auf dem Mainframe ist die Migration von veralteten, in COBOL geschriebenen Anwendungen in modernere Programmiersprachen. Aber warum ist das so? Dies ist vor allem auf den Generationswechsel in der Tech-Belegschaft zurückzuführen, wo neuere Entwickler während ihrer Bildung Kenntnisse in Sprachen wie Java und Python angeeignet haben, während viele der erfahrenen Profis sich noch immer gut mit älteren Technologien auskennen.
COBOL wird jedoch nicht so bald verschwinden - es ist immer noch die Grundlage für viele kritische Geschäftssysteme in Sektoren wie Banken und Regierung. Nach Angaben von Reuters basieren 43 % der Bankensysteme auf COBOL, und 220 Milliarden COBOL-Zeilen sind heute im Einsatz.4
Virtuelle Assistenten auf dem Mainframe tragen dazu bei, die Qualifikationslücke der Entwickler zu schließen. Tools wie IBM watsonx Code Assistant for Z nutzen generative KI, um bestehende COBOL-Anwendungen zu analysieren, zu verstehen und zu modernisieren. Diese Funktion ermöglicht es Entwicklern, COBOL-Code in Sprachen wie Java zu übersetzen. Außerdem beschleunigt es die Anwendungsmodernisierung, während die Funktionalität von Altlast-COBOL-Systemen erhalten bleibt.
Zu den Funktionen des watsonx Code Assistant for Z gehören Code-Erklärungen, automatisches Refactoring und Ratschläge zur Code-Optimierung, die es Entwicklern erleichtern, alte COBOL-Anwendungen zu warten und zu aktualisieren.
Seit Jahrzehnten hat sich der Mainframe weiterentwickelt und wird weiterhin fortentwickelt, um die Möglichkeiten der KI der nächsten Generation zu nutzen. Die Einführung des Telum II-Prozessors und der Spyre Accelerator-Karte bietet Organisationen die Möglichkeit, ihren Geschäftswert freischalten und neue Wettbewerbsvorteile zu erzielen.
„Heute ist der Mainframe nicht nur eine Transaktionsplattform, sondern eine sich entwickelnde KI-Plattform, die Unternehmen auf ihren KI-Reisen einen erheblichen Mehrwert bieten wird“, sagt Khadija Souissi.
Alle Links befinden sich außerhalb von IBM.
1 Card Fraud Losses Worldwide – 2021, Nilson Report, 2024
2 Why Is Mainframe Still Relevant and Thriving in 2022, Planet Mainframe, 20. Dezember 2022
3 The True Cost Of Downtime (And How To Avoid It), Forbes, 10. April 2024
4 Cobol Blues, Reuters, 2017
IBM zSystems ist eine Familie moderner z/Architecture-Hardware und führt folgende Systemsoftware aus: z/OS, Linux, z/VSE, z/TPF, z/VM und zSystems.
Entwickelt zur Bewältigung geschäftskritischer Workloads unter Gewährleistung der Sicherheit, Zuverlässigkeit und Kontrolle der gesamten IT-Infrastruktur.
Eine beschleunigte digitale Transformation durch die Modernisierung von Mainframe-Anwendungen mit IBM.