Best Practices zum Sichern Ihrer KI-Bereitstellung

Zwei Personen arbeiten vor Computern mit Codierung

Wenn Unternehmen generative KI einführen, versprechen sie sich von diesen Projekten eine Vielzahl von Vorteilen – von Effizienz- und Produktivitätssteigerungen über eine höhere Geschäftsgeschwindigkeit bis hin zu mehr Innovation bei Produkten und Dienstleistungen. Ein entscheidender Faktor bei dieser KI-Innovation ist jedoch das Vertrauen. Eine vertrauenswürdige KI beruht auf einem Verständnis dafür, wie die KI funktioniert und wie sie Entscheidungen trifft.

Laut einer Umfrage unter C-Suite-Führungskräften des IBM Institute for Business Value geben 82 % der Befragten an, dass sichere und vertrauenswürdige KI für den Erfolg ihres Unternehmens unerlässlich ist, aber nur 24 % der aktuellen generativen KI-Projekte werden gesichert. Dadurch entsteht eine erstaunliche Lücke bei der Sicherung bekannter KI-Projekte. Hinzu kommt die „Schatten-KI“ in den Unternehmen, die die Sicherheitslücke für KI noch größer werden lässt.

Würde Ihr Team den nächsten Zero-Day rechtzeitig erkennen?

Schließen Sie sich Führungskräften im Bereich Sicherheit an, die von den kuratierten Nachrichten zu KI, Cybersicherheit, Daten und Automatisierung im Think Newsletter profitieren. Lernen Sie schnell von Experten-Tutorials und Erläuterungen, die direkt in Ihren Posteingang geliefert werden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

https://www.ibm.com/de-de/privacy

Herausforderungen bei der sicheren Bereitstellung von KI

Unternehmen haben eine ganze Reihe neuer Projekte in der Pipeline, die sich generative KI zunutze machen. Während der Datenerfassungs- und -verarbeitungsphase müssen Sie riesige Datenmengen sammeln, um das Modell zu füttern, und Sie gewähren verschiedenen Personen Zugriff darauf, darunter Data Scientists, Ingenieuren und Entwicklern. Dies birgt ein gewisses Risiko, da alle Daten an einem Ort zentralisiert sind und viele Personen Zugriff darauf haben. Das bedeutet, dass generative KI eine neue Art von Datenspeicher ist, die neue Daten auf Basis bestehender Organisationsdaten erstellen kann. Egal, ob Sie das Modell trainiert, fein abgestimmt oder mit einem RAG (Vector DB) verbunden haben, diese Daten enthalten wahrscheinlich PII, Datenschutzbedenken und andere sensible Informationen. Dieser Berg sensibler Daten ist ein leuchtend rotes Ziel, auf das Angreifer zugreifen wollen.

Im Rahmen der Modellentwicklung werden neue Anwendungen auf völlig neue Art und Weise entwickelt, die neue Schwachstellen aufweisen, die Angreifer auszunutzen versuchen. Die Entwicklung beginnt oft damit, dass Data-Science-Teams vortrainierte Open-Source-ML-Modelle aus Online-Modellrepositories wie HuggingFace oder TensorFlow Hub herunterladen und neu verwenden. Open-Source-Modell-Sharing-Repositories sind aus der inhärenten Komplexität der Data Science, dem Mangel an Fachkräften und dem Nutzen entstanden, den sie Unternehmen bieten, indem sie den Zeit- und Arbeitsaufwand für die Einführung generativer KI drastisch reduzieren. Allerdings weisen solche Repositories oft Defizite bei den Sicherheitskontrollen auf, wodurch das Risiko letztendlich auf das Unternehmen abgewälzt wird – und Angreifer setzen genau darauf. Sie können eine Backdoor oder Malware in eines dieser Modelle einschleusen und das infizierte Modell wieder in die Modell-Sharing-Repositories hochladen, wodurch jeder betroffen ist, der es herunterlädt. Der allgemeine Mangel an Sicherheit rund um ML-Modelle, verbunden mit den zunehmend sensiblen Daten, denen ML-Modelle ausgesetzt sind, führt dazu, dass Angriffe auf diese Modelle ein hohes Schadenspotenzial bergen.

Während der Inferenz und der Live-Nutzung können Angreifer Prompts manipulieren, um Schutzmechanismen zu umgehen und Modelle zu Fehlverhalten zu verleiten, indem sie unzulässige Antworten auf schädliche Prompts generieren, einschließlich voreingenommener, falscher und anderer schädlicher Informationen, wodurch Reputationsschäden verursacht werden. Oder Angreifer manipulieren das Modell und analysieren Eingabe-Ausgabe-Paare, um ein Ersatzmodell so zu trainieren, dass es das Verhalten des Zielmodells nachahmt, wodurch seine Funktionen effektiv „gestohlen“ werden und das Unternehmen seinen Wettbewerbsvorteil verliert.

Kritische Schritte zur Sicherung von KI

Verschiedene Unternehmen verwenden unterschiedliche Ansätze zur Sicherung von KI, da sich die Standards und Frameworks für den Schutz von KI weiterentwickeln. Das KI-Sicherheits-Framework von IBM konzentriert sich auf die Kernprinzipien der KI-Bereitstellung: Datensicherheit, Modellsicherheit und Nutzungssicherheit. Darüber hinaus müssen Sie die Infrastruktur sichern, auf der die KI-Modelle erstellt und ausgeführt werden. Und sie müssen KI-Governance etablieren und Fairness, Verzerrung und Drift über die Zeit überwachen – alles kontinuierlich, um Änderungen oder Modellabweichungen zu verfolgen.

  • Sicherung der Daten: Unternehmen müssen große Datenmengen zentralisieren und sortieren, um den größtmöglichen Nutzen aus generativer KI zu ziehen und ihren Wert zu maximieren. Sobald Sie Ihre wertvollsten Daten an einem Ort zusammenführen und zentralisieren, setzen Sie sich einem erheblichen Risiko aus. Daher benötigen Sie einen Plan zur Datensicherheit, um sensible Daten zu identifizieren und zu schützen.
  • Sicherung des Modells: Viele Unternehmen laden Open-Source-Modelle herunter, um die Entwicklungsarbeit zu beschleunigen. Data Scientists laden diese Blackbox-Modelle herunter, ohne zu wissen, wie sie funktionieren. Angreifer haben denselben Zugang zu diesen Online-Modell-Repositories und können eine Backdoor oder Malware in eines dieser Modelle einbauen und es anschließend wieder in das Repository hochladen, um so einen Einstiegspunkt zu jedem zu schaffen, der das infizierte Modell herunterlädt. Sie müssen die Sicherheitslücken und Fehlkonfigurationen in der Bereitstellung verstehen.
  • Sichere die Nutzung: Unternehmen müssen den sicheren Einsatz von KI-Bereitstellungen sicherstellen. Bedrohungsakteure könnten eine Prompt Injection durchführen, bei der sie bösartige Prompts verwenden, um Modelle zu jailbreaken, sich unberechtigten Zugriff zu verschaffen, sensible Daten zu stehlen oder Ausgaben zu verzerren. Angreifer können auch Eingaben erstellen, um Modelausgaben zu sammeln und einen großen Datensatz von Eingabe-Ausgabe-Paaren anzusammeln, um ein Ersatzmodell zu trainieren, das Verhalten des Zielmodells nachzuahmen und so dessen Funktionen effektiv zu „stehlen“. Sie müssen die Verwendung des Modells verstehen und es mit Bewertungs-Frameworks abgleichen, um eine sichere Verwendung zu gewährleisten.

Und all das muss unter Einhaltung gesetzlicher Vorschriften geschehen.

Wir stellen vor: IBM Guardium AI Security

Da Unternehmen mit bestehenden Bedrohungen und den wachsenden Kosten von Datenschutzverletzungen zu kämpfen haben, wird die Sicherung von KI eine große Initiative sein – und eine, bei der viele Unternehmen Unterstützung benötigen werden. Um Unternehmen bei der Nutzung sicherer und vertrauenswürdiger KI zu unterstützen, hat IBM IBM Guardium AI Security eingeführt. Aufbauend auf jahrzehntelanger Erfahrung im Bereich Datensicherheit mit IBM Guardium ermöglicht dieses neue Angebot Unternehmen, ihre KI-Bereitstellung zu sichern.

Es ermöglicht Ihnen, Sicherheitsrisiken und Sicherheitslücken bei sensiblen KI-Daten und KI-Modellen zu verwalten. Es hilft Ihnen, Schwachstellen in den KI-Modellen zu erkennen und Fixes vorzunehmen sowie sensible Daten zu schützen. Überwachen Sie kontinuierlich auf KI-Fehlkonfigurationen, erkennen Sie Datenlecks und optimieren Sie die Zugriffskontrolle – mit einem vertrauenswürdigen Marktführer im Bereich Datensicherheit.

Ein Teil dieses neuen Angebots ist das IBM Guardium Data Security Center, das Sicherheits- und KI-Teams befähigt, unternehmensweit durch integrierte Workflows, eine gemeinsame Übersicht über Assets und zentralisierte Compliance-Richtlinien zusammenzuarbeiten.

Die Sicherung von KI ist eine Reise und erfordert die Zusammenarbeit von funktionsübergreifenden Teams – Sicherheitsteams, Risiko- und Compliance-Teams sowie KI-Teams – und Unternehmen müssen einen programmatischen Ansatz verfolgen, um ihre KI-Bereitstellung zu sichern.

Sehen Sie, wie Guardium AI Security Ihrem Unternehmen helfen kann, und melden Sie sich für unser Webinar an, um mehr zu erfahren.

Weiterführende Lösungen
Sicherheitslösungen für Unternehmen

Transformieren Sie Ihr Sicherheitsprogramm mit Lösungen vom größten Anbieter von Unternehmenssicherheit.

Cybersicherheitslösungen entdecken
Cybersicherheit-Services

Transformieren Sie Ihr Unternehmen und verwalten Sie Risiken mit Beratungsleistungen im Bereich Cybersicherheit sowie Cloud- und Managed-Security-Services.

    Mehr über Cybersicherheitsservices
    Cybersicherheit mit künstlicher Intelligenz (KI)

    Verbessern Sie die Geschwindigkeit, Genauigkeit und Produktivität von Sicherheitsteams mit KI-gestützten Cybersicherheits-Lösungen.

    KI für Cybersicherheit erkunden
    Machen Sie den nächsten Schritt

    Ganz gleich, ob Sie nach Lösungen für Datensicherheit, Endpunktmanagement oder Identitäts- und Zugriffsverwaltung (IAM) suchen – unsere Experten helfen Ihnen bei der Etablierung eines hohen Sicherheitsstatus. Transformieren Sie Ihr Unternehmen und managen Sie Risiken mit einem globalen Branchenführer für Beratungsleistungen im Bereich Cybersicherheit sowie Cloud- und Managed-Security-Services.

    Cybersicherheitslösungen entdecken Entdecken Sie Cybersicherheitsservices