Stellen Sie sich vor, Sie bestellen Essen für eine Dinnerparty, aber der Lieferroboter, der Ihr Essen transportiert, bleibt liegen, weil er nicht auf den unebenen Gehwegen in Ihrer Nachbarschaft navigieren kann. Oder weil das GPS-System nicht in der Lage ist, Umleitungen um eine nahe gelegene Straßensperrung herum zu finden.
Oder noch schlimmer, der Roboter kommt, aber Ihr Essen fehlt — Cyberkriminelle haben die Authentifizierungsprotokolle des Lieferdienstes gehackt und Ihre Mahlzeit (und Ihre personenbezogenen Daten) mitgenommen.
Ohne fortschrittliche Test- und Sicherheitspraktiken, die den heutigen Softwareumgebungen und Cybersicherheitsbedrohungen entsprechen, könnten DevOps-Teams und die Endbenutzer, die sich auf ihre Produkte verlassen, häufiger auf solche Probleme stoßen. Viele Kunden würden frustriert sein und zu einem anderen Lieferdienst wechseln (niemand mag es, unerwartet hungrig zu sein), und das Unternehmen würde die Auswirkungen dieser Frustration auf sein Geschäftsergebnis zu spüren bekommen.
Agentische KI-Tools können dem Entwicklungsteam des Bereitstellungsservices helfen, solche Probleme zu vermeiden. So könnte das Team beispielsweise Agenten einsetzen, um eine umfassende Suite zu erstellen, die Fehler und Sicherheitslücken während der Codierung identifiziert, lange bevor die Lieferroboter ihre erste Bestellung abholen.
Agentische KI-Tools können sogar „Teams“ mit mehreren Agenten verwenden, um digitale Zwillinge mit hoher Genauigkeit zu erstellen, die reale Herausforderungen simulieren, denen die Roboter begegnen könnten. So können Entwickler das Codeverhalten und die Abhängigkeitsinteraktionen testen, bevor sie mit der Programmierung beginnen. Dabei handelt es sich um einen „Shift Left“, bei dem die Test- und Qualitätssicherungspraktiken früher im Softwareentwicklungszyklus durchgeführt werden.
Angesichts der Komplexität moderner Softwaresysteme und der Nachfrage nach mehr Agilität und Zusammenarbeit hat sich dieser Fokus auf Erkennung zu der umfassenderen DevSecOps-Praxis „Shift Everywhere“ entwickelt. Ein „Shift Everywhere“-Ansatz zielt darauf ab, „die Integration von Sicherheit und Sicherheitspraktiken in jeder Phase des Softwareentwicklungszyklus zu automatisieren“.
Dies ist eine große Aufgabe – sowohl in praktischer als auch in kultureller Hinsicht –, die viele Unternehmen dazu veranlasst hat, genauer zu erkunden, wie sie die Funktionen der KI bei DevOps-Praktiken nutzen können. Zu den neuesten dieser Technologien gehört die agentische KI, die Folgendes kann:
Agentische KI-Tools verfügen auch über autonome Entscheidungsfindungsfunktionen, und Unternehmen sind von diesen Möglichkeiten begeistert.
Laut dem IBM Institute for Business Value (IBM IBV) sind „86 % der Führungskräfte der Meinung, dass KI-Agenten bis 2027 die Automatisierung von Prozessen und die Neuerfindung von Workflows effektiver gestalten werden“. Fast 80 % der leitenden Angestellten haben bereits irgendeine Form der agentischen KI in ihren Unternehmen eingeführt, und 19 % der Unternehmen setzen die agentische KI im großen Maßstab ein.
Intelligente KI-Agenten können jetzt die Softwareentwicklung, Bereitstellung, Überwachung und Upgrades orchestrieren. Sie können „Shift Left“- und „Shift Everywhere“-Praktiken für überlastete Entwickler, die möglicherweise nicht immer die Kapazitäten haben, Software gründlich zu testen und zu sichern, bevor sie bereitgestellt wird, handhabbarer machen.
Branchen-Newsletter
Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und mehr auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
„Shifting Left“ ist die strategische Vorgehensweise, Aufgaben – wie etwa Tests, Problemidentifizierung und -lösung sowie Sicherheit – in frühere Phasen des Softwareentwicklungslebenszyklus zu verschieben. Dies ermöglicht Teams, Probleme (idealerweise) während der Codierung und nicht erst bei der Bereitstellung zu entdecken. Der Begriff stammt aus der Visualisierung des Entwicklungsprozesses von links (Codierung) nach rechts (Bereitstellung), so dass die Einbindung kritischer Aktivitäten in die Codierungsphase gleichbedeutend mit einer Verschiebung nach links im Lebenszyklus ist.
Allerdings kann die Implementierung und Wartung von Shift-Left-Ansätzen schwierig sein, da sie zusätzliche Aufgaben auf die Entwickler übertragen, die normalerweise von Spezialisten und Experten übernommen werden würden.
Bei dieser Verlagerung müssen Entwickler und andere Teammitglieder Tests, Sicherheit, Problemmanagement und teamübergreifende Zusammenarbeit als regelmäßige Bestandteile ihrer Workload übernehmen. Das Hinzufügen solcher Aufgaben ohne Reduzierung der Workload kann die Zeit, die Entwickler für das Schreiben von qualitativ hochwertigem Code und die Lösung von Programmierproblemen verwenden, verringern.
Obwohl es sich bei der agentischen KI noch um eine neue Technologie handelt (mit ihren eigenen Herausforderungen bei der Einführung), kann sie Teams dabei helfen, die Schwierigkeiten zu bewältigen, die mit der Implementierung von Shift Left verbunden sind, insbesondere diejenigen, die die Produktivität der Entwickler beeinträchtigen.
Darüber hinaus können Agenten besonders hilfreich für Unternehmen sein, die auf einen „Shift Everywhere“-Ansatz umsteigen. Während sich „Shift-Left“ auf die Integration von Sicherheit und Tests zu einem früheren Zeitpunkt des Entwicklungslebenszyklus konzentriert, bedeutet „Shift Everywhere“ die Integration von Sicherheit, Überwachung und Tests in jede Phase, einschließlich Codierung, Erstellung, Bereitstellung und Laufzeit. Das Ziel ist es, jede App, jede Technologie und jede Bereitstellung während des gesamten Lebenszyklus zu sichern.
„Shift Everywhere trägt der Komplexität moderner Softwaresysteme und der Notwendigkeit geteilter Verantwortung zwischen Teams und Phasen stärker Rechnung“, so Billy O‘Connell, Software- und DevOps-Entwickler bei IBM. „Aber in Wirklichkeit entsteht ein hybrides Modell, das die besten Elemente aus jedem Ansatz nutzt. Es geht darum, die richtigen Tools und die richtige Einstellung für den richtigen Kontext zu verwenden.“
Agentische KI ist „ein künstliches Intelligenzsystem, das mit begrenzter Aufsicht ein bestimmtes Ziel erreichen kann.“ KI-Agenten nutzen Large Language Models (LLMs), Verarbeitung natürlicher Sprache (NLP) und maschinelles Lernen (ML), um ihre eigenen Workflows zu entwerfen, Aufgaben auszuführen und Prozesse im Namen von Benutzern und anderen Systemen auszuführen.
In einem agentischen KI-System koordinieren mehrere KI-Agenten ihre Bemühungen, um komplexe Aufgaben zu orchestrieren oder auszuführen und größere Ziele zu verfolgen, als ein einzelner Agent bewältigen könnte.
KI-Agenten erweitern die Automatisierung weit über vordefinierte Skripte hinaus. Im Gegensatz zu Chatbots und anderen KI-Modellen, die innerhalb vordefinierter Grenzen arbeiten und menschliches Eingreifen erfordern, sind KI-Agenten und agentische KI autonom, kontext- und zielorientiert und können sich an veränderte Umstände anpassen. Sie erledigen nicht nur Aufgaben, sondern lernen auch aus der Vergangenheit, passen sich der Gegenwart an und sagen die Zukunft voraus.
Der Einsatz von agentischer KI erfordert, dass Unternehmensleiter, Produktteams und Ingenieure gemeinsam hochgesteckte Ziele und Parameter festlegen, so dass KI-Agenten nicht ohne jegliche menschliche Beteiligung arbeiten können (und sollten). Vielmehr ermöglichen KI-Agenten Human-in-the-Loop-Entwicklungsverfahren, bei denen Agenten mit DevOps-Ingenieuren und -Teams zusammenarbeiten, um Menschen zu helfen, Ziele schneller zu erreichen.
Im Wesentlichen definieren Menschen das Was und die Agenten finden das Wie heraus, indem sie die Aktionen planen und ausführen, die notwendig sind, um diese Ziele innerhalb der vorgegebenen Parameter zu erreichen.
Unternehmen setzen zunehmend auf agentische KI-Systeme, um DevOps-Prozesse zu verwalten, zu rationalisieren und zu beschleunigen und die Pipelines für Continuous Integration/Continuous Delivery (CI/CD) zu verbessern.
Agenten können beispielsweise Codeänderungen auf Syntaxfehler überprüfen, Vorschläge zur Umgestaltung machen und Korrekturen überprüfen, bevor die Änderungen in die Codebasis integriert werden. Sie können außerdem Innovationen beschleunigen. „[Agenten] ermöglichen ein schnelles Prototyping von Ideen, die ich schon lange umsetzen wollte. Ob für die persönliche Produktivität oder die Teameffizienz, agentische KI hilft dabei, Konzepte in brauchbare Werkzeuge umzuwandeln und die Last alltäglicher Aufgaben zu reduzieren“, so O'Connell.
Agentische KI ist für eine Reihe von Anwendungsfällen nützlich, aber lassen Sie uns vier wichtige Prozesse genauer betrachten.
Agentische KI-Tools scannen kontinuierlich und in Echtzeit Observability-Daten (wie Metriken, Protokolle und Traces) und andere Datenströme (wie Benutzer-Feedbacksignale) aus einer Reihe von Quellen.
Dieser Prozess umfasst die Abfrage von Datenbanken, Prozessprotokollen, historischen Daten und Open-Source-Abhängigkeiten sowie die Verbindung zu Programmierschnittstellen (APIs), um Datenlücken zu identifizieren und zu schließen. Unter der Annahme, dass externe Daten innerhalb ihrer Parameter liegen, beziehen die Agenten auch Markt- und Branchendaten ein, um ihr Kontextbewusstsein zu erweitern, bevor sie Hypothesen aufstellen oder Benachrichtigungen an IT-Teams senden.
Mithilfe von ML-Funktionen identifizieren Agenten Datenmuster und Verknüpfungsstrukturen, lernen, was ein normales Systemverhalten ausmacht, passen sich im Laufe der Zeit dynamisch an und verfolgen Abweichungen von festgelegten Referenzwerten.
Agentische KI-Tools sind in der Lage, verschiedene Arten von Anomalien zu erkennen, egal ob es sich um einzelne unregelmäßige Datenpunkte, Cluster abnormaler Daten oder kontextbezogene Anomalien (z. B. plötzliche Rückgänge des E-Commerce-Website-Traffics am Black Friday) handelt. Sie können Referenzwerte auch selbstständig anpassen, wenn sich die Bedingungen ändern, und versteckte, mehrdimensionale Zusammenhänge identifizieren, die weitere Untersuchungen erfordern könnten.
Um den gleichen Prozess mit einem herkömmlichen, statischen KI-Modell abzuschließen, müssten die Entwickler das KI-Tool manuell neu trainieren, wenn sich die Referenzwerte ändern, was die Wahrscheinlichkeit erhöht, dass falsch positive oder negative Ergebnisse auftreten.
Tatsächlich erfordern statische Modelle tendenziell mehr menschliche Eingaben und funktionsübergreifende Abstimmungen.
Sie basieren auf vorgegebenen Regeln und einfacheren statistischen Prüfungen, die komplexe Beziehungen zwischen Variablen verschleiern können. Diese Mehrdeutigkeit zwingt Entwickler, Daten manuell zu korrelieren und Beziehungen zu definieren. Und da statischen KI-Modellen oft die Kontextsensitivität von agentischen KI-Modellen fehlt, neigen sie dazu, alle Anomalien gleich zu behandeln, sodass die Entwickler die Probleme selbst einschätzen müssen.
Agentische KI-Testtools können intelligentere, individuellere Testfälle generieren und die Testabdeckung in der gesamten Umgebung erweitern.
Agentische KI analysiert den Quellcode der Anwendung, die Struktur der Benutzeroberfläche (UI), Softwareanforderungen, Benutzerflüsse, API-Antworten, die Fehlerhistorie und vorhandene Testartefakte, um zu verstehen und zu entscheiden, welche Tests ausgeführt werden sollen. Entwickler können auch Szenarien erstellen (z. B. „Kunde legt Mahlzeiten in den Warenkorb und geht zur Kasse“) und diese von KI-Agenten in umsetzbare Testskripte umwandeln lassen, um alle Probleme zu identifizieren, die bei der Ausführung bestimmter Aktionen auftreten könnten.
Agentische KI-Tools passen Softwaretests kontinuierlich in Echtzeit an, lernen aus früheren Tests und implementieren Testprotokolle auf der Grundlage bisheriger Ergebnisse und der Priorität des Unternehmens. Diese Funktionen tragen dazu bei, dass Tests rechtzeitig erfolgen und die Abdeckung gezielt (aber umfassend) ist.
Wenn Entwickler beispielsweise die Codelogik ändern oder die Benutzeroberfläche aktualisieren, können Agenten die Änderungen während der Testläufe erkennen und die entsprechenden Tests automatisch aktualisieren. Wenn ein Codeabschnitt eine Sicherheitslücke aufweist oder ein ungewöhnliches Codemuster oder Sprachkonstrukt verwendet, können agentische KI-Tools ihn für lokale oder Unit-Tests empfehlen, den Code isolieren und weiter testen, um das Problem zu lokalisieren.
Tatsächlich können KI-Agenten, sobald sie verstehen, was eine Anwendung tun soll, Testskripte und Fälle generieren, bevor Entwickler den Code schreiben, damit sich die Entwicklungsteams auf die Codequalität konzentrieren können.
Agentische KI-assistierte Korrelationsfunktionen verknüpfen verwandte Warnmeldungen über Benutzer, Umgebungen und API-Endpunkte hinweg, analysieren aussagekräftige Warnmeldungen aus überflüssigen Signalen und reduzieren so die Anzahl der Warnmeldungen und die Alarmermüdung (Alarm Fatigue) für Entwicklungs- und Betriebsteams.
Eine Schlüsselkomponente von Shift Left in der Alarmkorrelation ist das Einbetten von Informationen an der Quelle, d. h. der Einsatz von Agenten zur Analyse von Rohdatenströmen beim Eintreffen der Daten. Dieser Ansatz ermöglicht eine Echtzeit-Korrelation und hilft Teams, von einer reaktiven Position zu einer proaktiven Korrelation und Sanierungsstrategie überzugehen.
Agentische KI-Systeme verwenden ausgefeilte ML-Algorithmen, um historische und Echtzeit-Alarmdaten zu analysieren und Datenpunkte u. a. auf Grundlage von Zeitpunkt, Quelle, Ereignistyp, betroffenen Systemen und Verhaltensmustern zu korrelieren.
Agenten erfassen dynamisch den Kontext – einschließlich IP-Adressen, Benutzer-IDs und Gerätestatus – zu jeder Warnmeldung. Mit den aufbereiteten Daten können die Mitarbeiter Vorfälle zuordnen und Gemeinsamkeiten erkennen. Wenn der Agent beispielsweise einen fehlgeschlagenen Anmeldeversuch zu einer ungewöhnlichen Stunde und einen unregelmäßigen Dateizugriff über dasselbe Konto bemerkt, kann er die Datenpunkte korrelieren und auf einen möglichen Angriffsversuch hinweisen.
Sobald eine Reihe von Warnungen gruppiert ist, zeigt der Agent sie als eine Einheit an. Ein Ereignis, das zwei separate Alarme generiert hat – einen für den Anmeldeversuch und einen für den Dateizugriff – wird nur einen Alarm (für den Verstoß) erstellen und an den Entwickler senden. Und anstatt umfassende Benachrichtigungen für einzelne Ereignisse zu bearbeiten und zu sichten, können IT-Teams Maßnahmen und Workflows zur Sanierung der gesamten Signalgruppe auslösen.
Darüber hinaus können KI-Agenten ganze Vorfallsgeschichten erstellen. Wenn eine Funktion ausfällt, können Agenten die Ursachen und die Leistung der Funktion im Laufe der Zeit verfolgen und so einen umfassenden Bericht erstellen, den die IT-Mitarbeiter zur Behebung des Problems verwenden können. Die Agenten können sich auch die Absturzdetails „merken“, sodass Entwickler die Bedingungen in zukünftigen Testrunden simulieren und Codefehler in neuen Iterationen oder Anwendungen finden können.
Agentische KI-Systeme helfen dabei, die Erkennung von Schwachstellen, Tests auf Ausnutzbarkeit, Ursachenanalysen und die Behebung von Bedrohungen während des Codierungsprozesses zu automatisieren, sodass Entwickler sich weniger um manuelle Codeüberprüfungen kümmern müssen.
KI-Agenten warten nicht auf Sicherheitswarnungen. Vielmehr suchen sie kontinuierlich nach verdächtigem Verhalten, indem sie Sicherheitsprotokolle, Netzwerkverkehr, Quellcode und Threat-Intelligence in Echtzeit analysieren. Sie können dann Hypothesen zu potenziellen Bedrohungen generieren, diese Hypothesen anhand von Protokollen testen und nur glaubwürdige Bedrohungen eskalieren, wobei sie ihr Verständnis im Laufe der Zeit verfeinern.
Im Gegensatz zu statischen KI-Modellen, die Probleme nur auf der Grundlage von voreingestellten Regeln erkennen, bewerten KI-Agenten den Schweregrad und die Ausnutzbarkeit von Sicherheitslücken, indem sie den Kontext betrachten (Assetwert, Netzwerkexposition, bekannte Angriffsmuster, mögliche Angriffsvektoren und andere Metriken).
Wenn eine Schwachstelle gefunden wird, können Agenten diese automatisch auf der Grundlage von Laufzeit, geschäftlichen Auswirkungen und Compliance-Kontext priorisieren und selbstständig Playbooks zur Behebung des Problems initiieren.
Mithilfe von vorausschauender Analyse und überwachtem Lernen können agentische KI-Tools auch Angriffe in Sandbox-Umgebungen simulieren, um zu testen, ob Schwachstellen ausgenutzt werden können.
Multi-Agent-Systeme können Schwachstellenbeschreibungen und den entsprechenden Quellcode analysieren, um Proof-of-Concept-Angriffe zu generieren, die das tatsächliche Risiko der Ausbeutung aufzeigen. Wenn sie ein problematisches Codefragment finden, können die Agenten einen Angriff erstellen, der die Sicherheitslücke auslöst. So können Entwickler genau sehen, wo das Problem aufgetreten ist, warum es aufgetreten ist und wie es sich auf die Softwareleistung auswirkt.
Nehmen wir das Beispiel des Essenslieferroboters. Ein agentischer KI-Ansatz würde es Entwicklern ermöglichen, einen Cyberangriff während – oder sogar vor – der Codierung zu simulieren, festzustellen, dass ein bestimmtes Codefragment anfällig für Man-in-the-Middle-Authentifizierungsangriffe ist, und den Code zu korrigieren, bevor der Roboter in einer Live-Umgebung eingesetzt wird.
Agentische KI wird für viele Unternehmen und DevOps-Teams zu einem transformativen Tool, aber es handelt sich immer noch um eine neue Technologie, die neue und sich entwickelnde Herausforderungen mit sich bringt. Während viele Führungskräfte optimistisch bleiben, geht Gartner davon aus, dass steigende Kosten, unzureichendes Risikomanagement und unklarer ROI dazu führen werden, dass Unternehmen bis 2027 mehr als 40 % aller agentischen KI-Projekte abbrechen werden.
Ein Großteil der Bedenken dreht sich um Sicherheitsfragen und das Vertrauen in Agenten. Es stimmt, dass agentische KI die Software- und Netzwerksicherheit rationalisieren und verbessern kann, aber sie birgt auch erhebliche Sicherheitsrisiken.
Agentische KI ermöglicht es Entwicklern, autonome benutzerdefinierte Agenten zu erstellen und bereitzustellen, die unabhängig über Systeme und Prozesse hinweg arbeiten. Viele dieser Agenten werden ohne formale IT-, Sicherheits- oder Governance-Transparenz erstellt und ausgeführt. Diese unkontrollierte, dezentrale Ausbreitung von Agenten kann zu „Schatten-KI“ innerhalb von Unternehmen und DevSecOps-Pipelines führen.
Da die Agenten autonom handeln, können Unternehmen auch Schwierigkeiten haben, die Human-in-the-Loop-Kontrolle aufrechtzuerhalten. Wenn KI-Agenten ohne klare Verantwortlichkeit agieren dürfen, kann es extrem schwierig werden, ihre Absichten zu beurteilen, ihre Aktionen zu validieren oder Sicherheitsrichtlinien effektiv anzuwenden, insbesondere wenn die Umgebungen expandieren. Wer ist schließlich dafür verantwortlich, wenn ein autonomes Tool einen Fehler macht oder seine Parameter verletzt?
Einige argumentieren, dass die Entwickler – und die Unternehmen, die sie unterstützen – an den schlechten Trainingsdaten, unzureichenden Tests oder fehlenden Sicherheitsvorkehrungen schuld sind. Doch realistisch gesehen kann das Bild noch viel düsterer sein.
Agentische KI-Tools sind zudem in hohem Maße auf APIs angewiesen, um auf Daten zuzugreifen, Workflows bereitzustellen und sich mit externen Services zu verbinden, und jede API-Integration ist ein potenzieller Einstiegspunkt für Angreifer. Da Agenten nicht immer vorhersehbaren API-Nutzungsmustern folgen (sie sind schließlich autonom), können sie durch legitime Vorgänge (einschließlich z. B. personenbezogener Informationen in Protokolldateien) unbeabsichtigt sensible oder geschützte Daten preisgeben und die Angriffsfläche erheblich vergrößern.
Ein einzelnes kompromittiertes oder falsch konfiguriertes API-Endgerät kann Zugriff auf mehrere Backend-Systeme und sensible Datensätze gewähren, sodass sich Cyberkriminelle innerhalb der Architektur lateral bewegen und ihre Berechtigungen erweitern können.
Darüber hinaus laufen die meisten KI-Agenten auf LLMs, sodass sie Schwachstellen vom zugrunde liegenden Modell erben können. Wenn ein Angreifer bösartige Anweisungen in Prompts oder vertrauenswürdige Datenquellen (wie Konfigurationsdateien, Dokumentation oder Support-Tickets) einbettet, kann der Agent unwissentlich schädliche Aktionen ausführen, wenn er den Prompt verarbeitet.
Unternehmen könnten auch Herausforderungen im Bereich der agentischen KI in Betracht ziehen, die nicht sicherheitsbezogen sind. Beispielsweise können autonome Agenten manchmal Build-Schritte oder Konfigurationsdetails halluzinieren und Parameter erfinden, die unbeabsichtigte oder böswillige Aktionen auslösen.
Halluzinationen treten auf, wenn ein Sprachmodell (oft ein generatives KI-Chatbot- oder Computer-Vision-Tool) falsche – oder vollständig erfundene – Informationen generiert, die plausibel erscheinen. Während der Vorstellung des Chatbots Bard von Google behauptete Bard, das James Webb-Weltraumteleskop habe die allerersten Bilder eines Exoplaneten aufgenommen. Dies war sachlich unzutreffend – das erste Bild eines Exoplaneten wurde Jahre zuvor von einem anderen Teleteleskop aufgenommen. Dies ist ein relativ harmloses Beispiel.
Wenn Agenten halluzinierte Details in DevOps-Workflows verwenden, können sie Fehler unbemerkt durch die Codebasis und die Automatisierungspipelines verbreiten, wo sie sich verschärfen und kaskadenartige Fehler verursachen.
Auch in Bezug auf die Codeentwicklung sind agentische KI-Tools unzureichend. Eine Studie hat gezeigt, dass Entwickler beim Einsatz von KI fast 20 % länger für die Lösung von Codeproblemen benötigen. Und der Bericht State of Software Delivery 2025 ergab, dass Entwickler 67 % mehr Zeit mit dem Debuggen von Code verbringen, der von KI-Tools generiert wurde. Viele Entwicklungsteams können mit dem Ausmaß der von der KI generierten Codefehler nicht Schritt halten, was bedeutet, dass KI-Agenten manchmal mehr technische Schulden machen, als sie beseitigen.
Während die Verwendung von agentischen KI-Tools mit erheblichen Herausforderungen verbunden ist, können KI-Gateways dazu beitragen, einige der Risiken zu mindern.
KI-Gateways fungieren als einheitliche, leichte Schicht zwischen agentenischen KI-Anwendungen und den von ihnen verwendeten Modellen, APIs und Tools. Gateways setzen Governance- und Compliance-Richtlinien einheitlich über alle KI-Agenten und DevOps-Tools im Ökosystem durch und eliminieren so eine fragmentierte und inkonsistente Durchsetzung von Parametern.
Die Zentralisierung rationalisiert den Prozess der Implementierung von Sicherheitsprotokollen, Datenschutz und der Einhaltung gesetzlicher Vorschriften in komplexen, verteilten Bereitstellungen. Sie hilft Agenten auch, den API-Zugriff und die Authentifizierungs- und Autorisierungsprozesse besser zu kontrollieren.
Darüber hinaus können Gateways Agenten dabei helfen, Bedrohungen und Codeprobleme früher zu erkennen, indem sie die Transparenz der Agentenaktivitäten verbessern. Sie bieten einen zusammenhängenden Überwachungs-, Prüf-, Erkennungs- und Rückverfolgbarkeitsapparat, sodass das Verhalten der Agenten während des gesamten Lebenszyklus verfolgt werden kann. Da KI-Gateways die agentische KI besser beobachtbar machen, helfen sie Unternehmen auch dabei, die Probleme der Schatten-KI und die unkontrollierbaren Kosten einzudämmen, die durch die Bereitstellung von agentischer KI entstehen können.
Auf die Frage, ob die Vorteile des Einsatzes von agentischer KI die Risiken überwiegen, antwortet O'Connell: „100 %. Wenn Unternehmen beginnen, agentische KI zu integrieren, sind Leitplanken unerlässlich – nicht nur technische, sondern auch kulturelle und ethische. Aber wir stehen erst an der Schwelle dessen, was möglich ist.“
Auch wenn es weiterhin Herausforderungen in Bezug auf Governance, Vertrauen und Integration gibt, ist die Entwicklung klar: KI-Agenten sind nicht nur ein Add-on zu DevOps- und CI/CD-Pipelines, sie gestalten deren Zukunft. Das Ergebnis ist nicht nur eine intelligentere Entscheidungsfindung, sondern ein kultureller Wandel hin zu einer effizienteren, anpassungsfähigeren Softwarebereitstellung.
Automatisieren Sie die Software-Bereitstellung für jede Anwendung On-Premises, in der Cloud oder auf dem Mainframe.
Verwenden Sie DevOps-Software und -Tools, um cloudnative Anwendungen für mehrere Geräte und Umgebungen zu erstellen, bereitzustellen und zu verwalten.
Schalten Sie mit IBM Cloud Consulting Services neue Funktionen frei und steigern Sie die geschäftliche Agilität. Entdecken Sie, wie Sie mit Hybrid-Cloud-Strategien und Expertenpartnerschaften gemeinsam Lösungen entwickeln, die digitale Transformation beschleunigen und die Leistung optimieren können.