Die heutige Cyberbedrohungslandschaft ist komplex. Die Umstellung auf Cloud- und Hybrid-Cloud-Umgebungen hat zu einer Ausbreitung des Datenverkehrs und erweiterten Angriffsflächen geführt, während Bedrohungsakteure weiterhin neue Wege finden, Schwachstellen auszunutzen. Gleichzeitig herrscht weiterhin ein Mangel an Cybersicherheitsfachleuten, allein in den USA gibt es über 700.000 offene Stellen.2
Das Ergebnis ist, dass Cyberangriffe heute häufiger und kostspieliger sind. Laut Data Breach Kostenreport beliefen sich die durchschnittlichen Kosten für die Behebung einer Datenschutzverletzung im Jahr 2023 weltweit auf 4,45 Millionen US-Dollar, was einem Anstieg von 15 % innerhalb von drei Jahren entspricht.
KI-Sicherheit kann eine Lösung bieten. Durch die Automatisierung der Erkennung und Reaktion auf Bedrohungen erleichtert die KI die Verhinderung von Angriffen und die Erfassung von Bedrohungsakteuren in Echtzeit. KI-Tools können bei allem helfen, von der Verhinderung von Malware-Angriffen durch die Identifizierung und Isolierung von Schadsoftware bis hin zur Erkennung von Brute-Force-Angriffen durch das Erkennen und Blockieren wiederholter Anmeldeversuche.
Mit KI-Sicherheit können Unternehmen ihre Sicherheitsabläufe kontinuierlich überwachen und Algorithmen für maschinelles Lernen einsetzen, um sich an die sich entwickelnden Cyberbedrohungen anzupassen.
Nicht in die KI-Sicherheit zu investieren, kann teuer werden. Unternehmen ohne KI-Sicherheit müssen sich mit durchschnittlichen Kosten von 5,36 Millionen USD bei Datenschutzverletzungen konfrontiert sehen, was 18,6 % über den Durchschnittskosten aller Unternehmen liegt. Sogar Unternehmen mit eingeschränkter KI-Sicherheit meldeten durch Datenschutzverletzungen durchschnittliche Kosten in Höhe von 4,04 Millionen US-Dollar. Das sind 400.000 US-Dollar weniger als im Gesamtdurchschnitt und 28,1 Prozent weniger als bei denen, die überhaupt keine KI-Sicherheit nutzen.
Trotz ihrer Vorteile stellt die KI eine Herausforderung für die Sicherheit dar, insbesondere in Bezug auf die Datensicherheit. KI-Modelle sind nur so zuverlässig wie ihre Trainingsdaten. Manipulationen oder verzerrte Daten können zu falsch positiven Ergebnissen oder ungenauen Antworten führen. So können beispielsweise verzerrte Trainingsdaten, die für Einstellungsentscheidungen verwendet werden, geschlechts- oder rassenbezogene Vorurteile verstärken, wobei KI-Modelle bestimmte demografische Gruppen bevorzugen und andere diskriminieren.3
KI-Tools können Bedrohungsakteuren auch dabei helfen, Sicherheitslücken erfolgreicher auszunutzen. So nutzen Angreifer beispielsweise die KI, um die Erkennung von Systemschwachstellen zu automatisieren oder komplexe Phishing-Angriffe zu generieren.
Laut Reuters hat das Federal Bureau of Investigation (FBI) aufgrund von KI vermehrt Cyberangriffe festgestellt.4 Ein kürzlich veröffentlichter Bericht ergab auch, dass 75 % der leitenden Cybersicherheitsexperten mehr Cyberangriffe sehen, wobei 85 % den Anstieg auf generative KI nutzende, böswillige Akteure zurückführen.5
Trotz dieser Bedenken zeigen Untersuchungen, dass nur 24 % der aktuellen generativen KI-Projekte gesichert sind.
In Zukunft werden viele Unternehmen nach Möglichkeiten suchen, Zeit und Ressourcen in sichere KI zu investieren, um die Vorteile künstlicher Intelligenz zu nutzen, ohne Kompromisse bei der KI-Ethik oder -Sicherheit einzugehen (siehe „Best Practices für die KI-Sicherheit“).