Die heutige Cyberbedrohungslandschaft ist komplex. Die Umstellung auf Cloud- und Hybrid-Cloud-Umgebungen hat zu einer Ausbreitung des Datenverkehrs und erweiterten Angriffsflächen geführt, während Bedrohungsakteure weiterhin neue Wege finden, Schwachstellen auszunutzen. Gleichzeitig herrscht weiterhin ein Mangel an Cybersicherheitsfachleuten, allein in den USA gibt es über 700.000 offene Stellen.2
Das Ergebnis ist, dass Cyberangriffe heute häufiger und kostspieliger sind. Laut dem Data Breach Kostenreport beliefen sich die durchschnittlichen Kosten für die Behebung einer Datenschutzverletzung im Jahr 2023 weltweit auf 4,45 Millionen US-Dollar, was einem Anstieg von 15 % innerhalb von drei Jahren entspricht.
KI-Sicherheit kann eine Lösung bieten. Durch die Automatisierung der Erkennung und Reaktion auf Bedrohungen erleichtert die KI die Verhinderung von Angriffen und die Erfassung von Bedrohungsakteuren in Echtzeit. KI-Tools können bei allem helfen, von der Verhinderung von Malware-Angriffen durch die Identifizierung und Isolierung von Schadsoftware bis hin zur Erkennung von Brute-Force-Angriffen durch das Erkennen und Blockieren wiederholter Anmeldeversuche.
Mit KI-Sicherheit können Unternehmen ihre Sicherheitsabläufe kontinuierlich überwachen und Algorithmen für maschinelles Lernen einsetzen, um sich an die sich entwickelnden Cyberbedrohungen anzupassen.
Nicht in die KI-Sicherheit zu investieren, kann teuer werden. Unternehmen ohne KI-Sicherheit müssen sich mit durchschnittlichen Kosten von 5,36 Millionen USD bei Datenschutzverletzungen konfrontiert sehen, was 18,6 % über den Durchschnittskosten aller Unternehmen liegt.
Selbst begrenzte Sicherheit kann zu erheblichen Kosteneinsparungen führen: Unternehmen mit begrenzter KI-Sicherheit meldeten durchschnittliche Kosten für Data Breach in Höhe von 4,04 Mio. US-Dollar – das sind 400.000 US-Dollar weniger als der Gesamtdurchschnitt und 28,1 % weniger als Unternehmen ohne KI-Sicherheit.
Trotz ihrer Vorteile stellt die KI eine Herausforderung für die Sicherheit dar, insbesondere in Bezug auf die Datensicherheit. KI-Modelle sind nur so zuverlässig wie ihre Trainingsdaten. Manipulationen oder verzerrte Daten können zu falsch positiven Ergebnissen oder ungenauen Antworten führen. So können beispielsweise verzerrte Trainingsdaten, die für Einstellungsentscheidungen verwendet werden, geschlechts- oder rassenbezogene Vorurteile verstärken, wobei KI-Modelle bestimmte demografische Gruppen bevorzugen und andere diskriminieren.3
KI-Tools können Bedrohungsakteuren auch dabei helfen, Sicherheitslücken erfolgreicher auszunutzen. So nutzen Angreifer beispielsweise die KI, um die Erkennung von Systemschwachstellen zu automatisieren oder komplexe Phishing-Angriffe zu generieren.
Laut Reuters hat das Federal Bureau of Investigation (FBI) aufgrund von KI vermehrt Cyberangriffe festgestellt.4 Ein kürzlich veröffentlichter Bericht ergab auch, dass 75 % der leitenden Cybersicherheitsexperten mehr Cyberangriffe sehen, wobei 85 % den Anstieg auf generative KI nutzende, böswillige Akteure zurückführen.5
In Zukunft werden viele Unternehmen nach Möglichkeiten suchen, Zeit und Ressourcen in sichere KI zu investieren, um die Vorteile künstlicher Intelligenz zu nutzen, ohne Kompromisse bei der KI-Ethik oder -Sicherheit einzugehen (siehe „Best Practices für die KI-Sicherheit“).