Wenn Unternehmen generative KI einführen, versprechen sie sich von diesen Projekten eine Vielzahl von Vorteilen – von Effizienz- und Produktivitätssteigerungen über eine höhere Geschäftsgeschwindigkeit bis hin zu mehr Innovation bei Produkten und Dienstleistungen. Ein entscheidender Faktor bei dieser KI-Innovation ist jedoch das Vertrauen. Eine vertrauenswürdige KI beruht auf einem Verständnis dafür, wie die KI funktioniert und wie sie Entscheidungen trifft.
Laut einer Umfrage unter C-Suite-Führungskräften des IBM Institute for Business Value geben 82 % der Befragten an, dass sichere und vertrauenswürdige KI für den Erfolg ihres Unternehmens unerlässlich ist, aber nur 24 % der aktuellen generativen KI-Projekte werden gesichert. Dadurch entsteht eine erstaunliche Lücke bei der Sicherung bekannter KI-Projekte. Hinzu kommt die „Schatten-KI“ in den Unternehmen, die die Sicherheitslücke für KI noch größer werden lässt.
Think-Newsletter
Schließen Sie sich Führungskräften im Bereich Sicherheit an, die von den kuratierten Nachrichten zu KI, Cybersicherheit, Daten und Automatisierung im Think Newsletter profitieren. Lernen Sie schnell von Experten-Tutorials und Erläuterungen, die direkt in Ihren Posteingang geliefert werden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Unternehmen haben eine ganze Reihe neuer Projekte in der Pipeline, die sich generative KI zunutze machen. Während der Datenerfassungs- und -verarbeitungsphase müssen Sie riesige Datenmengen sammeln, um das Modell zu füttern, und Sie gewähren verschiedenen Personen Zugriff darauf, darunter Data Scientists, Ingenieuren und Entwicklern. Dies birgt ein gewisses Risiko, da alle Daten an einem Ort zentralisiert sind und viele Personen Zugriff darauf haben. Das bedeutet, dass generative KI eine neue Art von Datenspeicher ist, die neue Daten auf Basis bestehender Organisationsdaten erstellen kann. Egal, ob Sie das Modell trainiert, fein abgestimmt oder mit einem RAG (Vector DB) verbunden haben, diese Daten enthalten wahrscheinlich PII, Datenschutzbedenken und andere sensible Informationen. Dieser Berg sensibler Daten ist ein leuchtend rotes Ziel, auf das Angreifer zugreifen wollen.
Im Rahmen der Modellentwicklung werden neue Anwendungen auf völlig neue Art und Weise entwickelt, die neue Schwachstellen aufweisen, die Angreifer auszunutzen versuchen. Die Entwicklung beginnt oft damit, dass Data-Science-Teams vortrainierte Open-Source-ML-Modelle aus Online-Modellrepositories wie HuggingFace oder TensorFlow Hub herunterladen und neu verwenden. Open-Source-Modell-Sharing-Repositories sind aus der inhärenten Komplexität der Data Science, dem Mangel an Fachkräften und dem Nutzen entstanden, den sie Unternehmen bieten, indem sie den Zeit- und Arbeitsaufwand für die Einführung generativer KI drastisch reduzieren. Allerdings weisen solche Repositories oft Defizite bei den Sicherheitskontrollen auf, wodurch das Risiko letztendlich auf das Unternehmen abgewälzt wird – und Angreifer setzen genau darauf. Sie können eine Backdoor oder Malware in eines dieser Modelle einschleusen und das infizierte Modell wieder in die Modell-Sharing-Repositories hochladen, wodurch jeder betroffen ist, der es herunterlädt. Der allgemeine Mangel an Sicherheit rund um ML-Modelle, verbunden mit den zunehmend sensiblen Daten, denen ML-Modelle ausgesetzt sind, führt dazu, dass Angriffe auf diese Modelle ein hohes Schadenspotenzial bergen.
Während der Inferenz und der Live-Nutzung können Angreifer Prompts manipulieren, um Schutzmechanismen zu umgehen und Modelle zu Fehlverhalten zu verleiten, indem sie unzulässige Antworten auf schädliche Prompts generieren, einschließlich voreingenommener, falscher und anderer schädlicher Informationen, wodurch Reputationsschäden verursacht werden. Oder Angreifer manipulieren das Modell und analysieren Eingabe-Ausgabe-Paare, um ein Ersatzmodell so zu trainieren, dass es das Verhalten des Zielmodells nachahmt, wodurch seine Funktionen effektiv „gestohlen“ werden und das Unternehmen seinen Wettbewerbsvorteil verliert.
Verschiedene Unternehmen verwenden unterschiedliche Ansätze zur Sicherung von KI, da sich die Standards und Frameworks für den Schutz von KI weiterentwickeln. Das KI-Sicherheits-Framework von IBM konzentriert sich auf die Kernprinzipien der KI-Bereitstellung: Datensicherheit, Modellsicherheit und Nutzungssicherheit. Darüber hinaus müssen Sie die Infrastruktur sichern, auf der die KI-Modelle erstellt und ausgeführt werden. Und sie müssen KI-Governance etablieren und Fairness, Verzerrung und Drift über die Zeit überwachen – alles kontinuierlich, um Änderungen oder Modellabweichungen zu verfolgen.
Und all das muss unter Einhaltung gesetzlicher Vorschriften geschehen.
Da Unternehmen mit bestehenden Bedrohungen und den wachsenden Kosten von Datenschutzverletzungen zu kämpfen haben, wird die Sicherung von KI eine große Initiative sein – und eine, bei der viele Unternehmen Unterstützung benötigen werden. Um Unternehmen bei der Nutzung sicherer und vertrauenswürdiger KI zu unterstützen, hat IBM IBM Guardium AI Security eingeführt. Aufbauend auf jahrzehntelanger Erfahrung im Bereich Datensicherheit mit IBM Guardium ermöglicht dieses neue Angebot Unternehmen, ihre KI-Bereitstellung zu sichern.
Es ermöglicht Ihnen, Sicherheitsrisiken und Sicherheitslücken bei sensiblen KI-Daten und KI-Modellen zu verwalten. Es hilft Ihnen, Schwachstellen in den KI-Modellen zu erkennen und Fixes vorzunehmen sowie sensible Daten zu schützen. Überwachen Sie kontinuierlich auf KI-Fehlkonfigurationen, erkennen Sie Datenlecks und optimieren Sie die Zugriffskontrolle – mit einem vertrauenswürdigen Marktführer im Bereich Datensicherheit.
Ein Teil dieses neuen Angebots ist das IBM Guardium Data Security Center, das Sicherheits- und KI-Teams befähigt, unternehmensweit durch integrierte Workflows, eine gemeinsame Übersicht über Assets und zentralisierte Compliance-Richtlinien zusammenzuarbeiten.
Die Sicherung von KI ist eine Reise und erfordert die Zusammenarbeit von funktionsübergreifenden Teams – Sicherheitsteams, Risiko- und Compliance-Teams sowie KI-Teams – und Unternehmen müssen einen programmatischen Ansatz verfolgen, um ihre KI-Bereitstellung zu sichern.
Sehen Sie, wie Guardium AI Security Ihrem Unternehmen helfen kann, und melden Sie sich für unser Webinar an, um mehr zu erfahren.