Die Zukunft ist programmierbar: Wie generatives Computing die Software revolutionieren könnte

Serverwand bei IBM Forschung in Yorktown Heights

Die Idee entstand nicht über Nacht. Sie entstand langsam, in spätabendlichen Slack-Threads und Flurgesprächen, ein leises Überdenken darüber, wie Maschinen denken. Irgendwo zwischen dem Chaos des Promptings und den Bestrebungen der Automatisierung entstand ein neues Konzept. Es könnte nicht nur künstliche Intelligenz, sondern auch die Software selbst neu definieren.

Die Prämisse ist gewagt: Was wäre, wenn wir große Sprachmodelle nicht mehr wie rätselhafte Chatbots behandeln, sondern wie eine programmierbare Infrastruktur? IBM bezeichnet diese aufkommende Disziplin als generatives Rechnen – ein Begriff und ein Framework, das von seinen Forschern entwickelt wurde, um einen neuen Ansatz zur Arbeit mit KI-Modellen zu definieren. Es geht darum, die Integration von KI-Modellen in Systeme neu zu gestalten – nicht als unvorhersehbare Orakel, sondern als kontrollierte, modulare Software-Komponenten. Wenn es gelingt, könnte es einen Wendepunkt für KI-Entwicklung, Softwaredesign und Unternehmenstechnologie markieren.

David Cox, Director at IBM Research, sagte IBM Think in einem Interview, dass er den Begriff generatives Rechnen geprägt habe, um den Wandel zu beschreiben, den er in der KI-Entwicklung sieht. Es ist weder eine Marke noch ein Produkt. Es handelt sich um einen Paradigmenwechsel, eine Bewegung, die große Sprachmodelle nicht mehr als intelligente Chatpartner, sondern als programmierbare Elemente betrachtet. Vergessen Sie die Zaubertricks. Das ist Softwareentwicklung.

„Es ist nicht so, dass LLMs das Programmieren ersetzen“, sagte er. „Es geht darum, dass sie sich zu einer neuen Art von Programmierprimitiv entwickeln.“

Heute fühlt sich die Interaktion mit einem großen Sprachmodell oft so an, als würde man ein launisches Orakel herbeirufen. Ändern Sie einen Satz in einem Prompt geringfügig, und die Ausgabe weicht vom Kurs ab. Schreiben Sie eine Prompt in Essaylänge und hoffen, beten, überreden Sie. Sie ist kunstvoll, so wie die Astrologie kunstvoll, schwer fassbar, interpretativ und gelegentlich tiefgründig ist. Für Banken, Krankenhäuser und Regierungen ist Mystik jedoch nicht skalierbar.

„Man tippt etwas ein und erhält eine andere Antwort, je nachdem, wie man es formuliert hat“, sagte Ruchir Puri, Chief Scientist bei IBM Research, in einem Interview mit IBM Think. „Es ist wie in den Anfängen der Suche. Wir befinden uns immer noch in der Ära, in der ein Komma die Ausgabe verändern kann. So kann man kein Unternehmen führen.“

Puri beschreibt eine Welt, in der Unternehmen nicht nur mit Halluzinationen zu kämpfen haben, sondern auch mit mangelnder Zuverlässigkeit darin, wie Modelle mit Grenzfällen umgehen. „Wir sprechen viel über Halluzinationen“, sagte er, „aber das tiefere Problem ist, dass die Modelle nicht garantiert den Anweisungen folgen. Sie ändern ein Wort in einem Prompt und Sie wissen nicht, was Sie erhalten werden.“ Das, so argumentierte er, sei das Gegenteil von Engineering.

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Vom Prompting zum Programmieren

Um es klarzustellen: Niemand legt die Kraft moderner Modelle in Frage. Was schief läuft, sagte Cox, ist die Art und Weise, wie wir sie benutzen. „Prompt Engineering ist nicht gleich Engineering. Es ist Fummelei. Wir brauchen ein System, bei dem wir nicht darauf hoffen müssen, dass das Modell das tut, was wir beabsichtigt haben, sondern wir es so programmieren können, dass es das tut, was wir beabsichtigen.“

Die Grundidee des generativen Rechnens ist einfach: Man behandelt das Modell als Funktion. Anstatt Anweisungen in ausführlichen Aufsätzen zu vergraben, verwenden Entwickler eine Laufzeit – eine Orchestrierungsschicht, die Prompts in atomare Teile aufteilt, sie weiterleitet, Bedingungen überprüft und Fehler neu schreibt. Logik wird nicht nur impliziert, sondern auch durchgesetzt. Die Kontrolle wird explizit. Die Struktur kehrt zurück.

„Denken Sie an das Internet“, sagte Cox. „Man sendet ja auch nicht einfach Rohdaten über ein Kabel und hofft, dass sie ankommen. Sie haben Protokolle, Wiederholungen und Routing. Das ist es, was wir der KI hinzufügen.“ In der Praxis bedeutet dies den Aufbau von mehrschichtigen Systemen, die komplexe Aufgaben in kleinere, überschaubare Anweisungen aufteilen, von denen jede einzelne Verify wird, bevor sie fortgesetzt wird. „Man könnte statt eines einzigen langen und komplexen Prompts zwanzig kleine, gezielte Prompts für das Modell erhalten“, so Puri. „Aber jetzt können Sie jeden einzelnen protokollieren. Sie können es erneut versuchen. Man kann Ausweichmechanismen einbauen. Genau das brauchen Unternehmen.“

Diese Struktur öffnet auch die Tür zum Testen und Validieren, zwei Prinzipien, die es in der generativen KI schon lange nicht gab. „Sie können Assertions zum LLM-Verhalten genauso schreiben, wie Sie es in Bezug auf Code tun“, sagte Cox. „Und wenn Sie nicht das gewünschte Verhalten erhalten, können Sie das Model bitten, es erneut zu versuchen, oder zu einer anderen Subroutine weiterleiten.“

Diese Idee wird besonders wirksam, wenn sie auf die Sicherheit angewendet wird. Puri sagt, er höre oft von CTOs, die das Potenzial von KI-Agenten schätzen, aber vor ihrer Unvorhersehbarkeit zurückschrecken. „Sie haben Angst, sie irgendetwas alleine machen zu lassen. Was, wenn sie Halluzinationen haben? Was passiert, wenn sie die falsche Nachricht senden oder die falsche Transaktion genehmigen?“

Als Antwort darauf führt das generative Computing Instrumente wie die Erkennung von Halluzinationen, die Kontextvalidierung und die konformitätsbewusste Verarbeitung ein. „Mit unserer Laufzeitumgebung“, sagte Cox, „kann man ein Wächtermodell einfügen, das die Ausgabe des Hauptmodells überprüft. Wenn etwas verdächtig aussieht, kann es es markieren oder zu einem weiteren Versuch auffordern.“

Diese Art der Schichtung ermöglicht ein Maß an Reproduzierbarkeit und Vertrauen, das das heutige Prompt Engineering nicht bieten kann. Entwickler können traditionellen Code mit LLM-Antworten kombinieren und so Ausgaben in größere Systeme einbetten, ohne die Kontrolle abzugeben.

„Es ist kein Chatbot“, sagte Cox. „Es ist Teil Ihres Software-Stacks. Man testet es wie jedes andere Modul.“

Ein verhaltensorientiertes Blueprint für Maschinen

Dieser Moment, so Cox, sei vergleichbar mit früheren Epochen der Computergeschichte. In den 1980er Jahren ermöglichte die Einführung von Software-Designmustern wie Model-View-Controller (MVC) Entwicklern, Logik von Schnittstelle zu trennen und so eine modulare und wiederverwendbare Grundlage für den Aufbau von Anwendungen zu schaffen. Das generative Computing stellt seiner Meinung nach einen ähnlichen Wendepunkt dar.

„Wir werden Muster finden“, sagte er. „So wie MVC in der Benutzeroberfläche-Entwicklung allgegenwärtig geworden ist, werden wir auch Frameworks zur Orchestrierung von LLMs sehen. Das ist der Beginn einer neuen Ebene im Software-Stack.“

Diese Vorstellung von Struktur bildet die Grundlage für einen Großteil der generativen Computerbewegung. Anstatt zu versuchen, jedes einzelne Neuron in einem großen Sprachmodell zu verstehen, entwickeln Entwickler Leitplanken, die auf die Unternehmensbeschränkungen abgestimmt sind. „Wir schaffen Verantwortlichkeit“, sagte Puri.

Transparenz, sagte Cox, muss nicht Einfachheit bedeuten. „Der Motor Ihres Autos ist kompliziert“, sagte er. „Aber es ist innerhalb einer Sicherheitshülle gebaut. Wenn etwas kaputt geht, gibt es dafür festgelegte Vorgehensweisen. Genau das wollen wir für KI. Kein Mysterium. Engineering.“

Technisch ausgedrückt bedeutet dies, die Zwischenschritte der Entscheidungsfindung eines Modells offenzulegen. Die beim generativen Rechnen verwendete Laufzeitumgebung kann Protokolle erstellen, Metadaten anhängen und bei jedem Schritt eine Validierung durchführen.

„Es ist eine Erklärung als Funktion“, sagte Cox. „Nicht als nachträglicher Einfall.“

IBMs Granite-Modelle wurden bereits darauf abgestimmt, diese Art von modularer Orchestrierung zu unterstützen. Sie sind für schnelle, speichereffiziente Inferenzen optimiert und ermöglichen viele kleine Abfragen anstelle eines massiven Prompts. Dadurch eignen sie sich gut für einen laufzeitgesteuerten Ansatz.

„Sie können sie sich als Bausteine vorstellen“, sagte Puri. „Anstatt zu versuchen, alles auf einmal zu erledigen, denken wir sie viele Male für bestimmte Unteraufgaben an. Das ist schneller, günstiger und zuverlässiger.“

Die Vorteile sind nicht nur technischer, sondern auch organisatorischer Natur. In einem Pilotprojekt nutzte ein Unternehmenskunde generatives Computing, um eine Dokumentenklassifizierungspipeline zu erstellen. Anstatt sich bei der Zusammenfassung einer rechtlichen Aufgabenstellung auf eine Eingabeaufforderung zu verlassen, unterteilten sie die Aufgabe in neun Phasen: Klassifizierung, Segmentierung, Extraktion, Validierung, Risikobewertung, Zusammenfassung, Formatierung, Überprüfung und Genehmigung.

„Jede Phase wurde isoliert und überwacht“, sagte Cox. „Wenn etwas schiefging, konnte es wiederholt oder korrigiert werden.“ Das war mit einem einzigen Prompt nicht möglich.“

Puri glaubt, dass diese Art von Struktur zur Norm werden wird. „Wir werden aufhören, LLMs als End-to-End-Magie zu betrachten, sondern sie als Infrastruktur behandeln“, sagte er. „Es geht nicht darum, Entwickler zu ersetzen. Es geht darum, ihnen neue Tools an die Hand zu geben.“

Eines dieser Tools, so Cox, ist das LLM-Intrinsic, ein neues Konzept, bei dem spezielle Modellfunktionen direkt zur Laufzeit bereitgestellt werden, was eine tiefere Integration und Echtzeitanpassung ermöglicht. „Man kann einen Adapter anschließen, der das Verhalten des Modells verändert“, sagte er. „Damit können Sie den Ton ändern, das Risiko reduzieren und sogar Halluzinationen im laufenden Betrieb erkennen.“

Diese Fortschritte könnten die Art und Weise verändern, wie Software geschrieben wird. Cox stellt sich IDEs vor, die Laufzeit-Orchestrierungsvorlagen für LLMs, Unit-Tests zur Validierung von Prompts und Versionskontrollsysteme enthalten, die das Verhalten der Modelle verfolgen.

„Softwareingenieure werden neue Fähigkeiten erlernen müssen“, sagte er. „Aber die Grundlagen bleiben bestehen: Eingaben, Ausgaben, Korrektheit, Beobachtbarkeit. Wir geben die Softwareentwicklung nicht auf. Wir aktualisieren sie.“

Forscher gehen davon aus, dass das generative Computing über seinen derzeitigen Anwendungsfall hinausgehen wird. Mit der Weiterentwicklung des Fachbereichs werden neue Abstraktionsebenen, neue Standards und neue Aufgabenbereiche entstehen.

Er hält für einen Moment inne. „Wir haben ein Jahrzehnt damit verbracht, zu lernen, wie wir diese Systeme intelligent klingen lassen können“, sagte er. „Jetzt müssen wir ihnen beibringen, wie man sich benimmt.“

AI Academy

Vom Pilotprojekt zur Produktion: ROI steigern mit GenAI

Erfahren Sie, wie Ihr Unternehmen die Leistungsfähigkeit KI-gestützter Lösungen in vollem Umfang nutzen kann, um Ihr Unternehmen grundlegend zu verändern und neue Maßstäbe zu setzen.

Weiterführende Lösungen
IBM watsonx.ai

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

Entdecken sie watsonx.ai
Lösungen im Bereich künstlicher Intelligenz

Setzen Sie KI in Ihrem Unternehmen ein – mit branchenführendem Fachwissen im Bereich KI und dem Lösungsportfolio von IBM an Ihrer Seite.

Erkunden Sie KI-Lösungen
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Profitieren Sie von einem einheitlichen Zugriff auf Funktionen, die den gesamten Lebenszyklus der KI-Entwicklung abdecken. Erstellen Sie leistungsstarke KI-Lösungen mit benutzerfreundlichen Oberflächen, Workflows und Zugriff auf branchenübliche APIs und SDKs.

watsonx.ai erkunden Live-Demo buchen