L'attuale panorama delle minacce informatiche è complesso. Il passaggio al cloud e agli ambienti hybrid cloud ha portato all'aumento dei dati e all'espansione delle superfici di attacco, mentre gli autori delle minacce continuano a trovare nuovi modi per sfruttare le vulnerabilità. Allo stesso tempo, i professionisti della cybersecurity sono ancora poco richiesti, con oltre 700.000 posti di lavoro vacanti solo negli Stati Uniti.2
Il risultato è che gli attacchi informatici sono diventati più frequenti e costosi. Secondo il report Cost of a Data Breach, il costo medio globale per intervenire in caso di violazione dei dati nel 2023 è stato di 4,45 milioni di dollari, con un aumento del 15% nell'arco di tre anni.
La sicurezza dell'AI può offrire una soluzione. Automatizzando la risposta e il rilevamento delle minacce, l'AI rende più semplice la prevenzione degli attacchi e la cattura degli autori delle minacce in tempo reale. Gli strumenti di AI possono aiutare in tutto, dalla prevenzione degli attacchi di malware individuando e isolando il software dannoso, al rilevamento degli attacchi di forza bruta riconoscendo e bloccando i tentativi di accesso ripetuti.
Con la sicurezza dell'AI, le organizzazioni possono monitorare costantemente le proprie operazioni di sicurezza e utilizzare algoritmi di apprendimento automatico per adattarsi alle minacce informatiche in costante evoluzione.
Non investire nella sicurezza dell'AI è costoso. Le organizzazioni senza sicurezza dell'AI devono affrontare un costo medio di violazione dei dati pari a 5,36 milioni di dollari, il 18,6% in più rispetto al costo medio di tutte le organizzazioni. Anche le organizzazioni con una sicurezza dell'AI limitata hanno riportato un costo medio di violazione dei dati pari a 4,04 milioni di dollari. Si tratta di 400.000 dollari in meno rispetto alla media complessiva e il 28,1% in meno rispetto a quelle organizzazioni che non utilizzano affatto soluzioni per la sicurezza dell'AI.
Nonostante i vantaggi, l'AI pone dei problemi in termini di sicurezza, in particolare per quanto riguarda la sicurezza dei dati. I modelli AI sono affidabili solo nella misura in cui lo sono i dati di addestramento su cui si basano. Dati alterati o distorti possono provocare falsi positivi o risposte imprecise. Ad esempio, i dati di addestramento distorti utilizzati per le decisioni relative alle assunzioni possono rafforzare i pregiudizi di genere o razziali, con modelli AI che favoriscono alcuni gruppi demografici e discriminano altri.3
Gli strumenti di AI possono inoltre aiutare gli autori delle minacce a sfruttare con maggior successo le vulnerabilità della sicurezza. Ad esempio, gli autori di un attacco possono utilizzare l'AI per automatizzare la scoperta delle vulnerabilità del sistema o generare sofisticati attacchi di phishing.
Secondo la Reuters, il Federal Bureau of Investigation (FBI) ha registrato un aumento delle intrusioni informatiche dovute all'AI.4 Un recente report ha inoltre rilevato che il 75% dei professionisti esperti in cybersecurity sta rilevando a un aumento degli attacchi informatici, con l'85% che attribuisce l'aumento a soggetti malintenzionati che utilizzano la gen AI.5
Nonostante questi problemi, la ricerca mostra che solo il 24% dei progetti di gen AI di ultima generazione sono protetti.
In futuro, numerose organizzazioni cercheranno dei modi per investire tempo e risorse in un'AI sicura per sfruttare i vantaggi dell'AI senza compromettere l'etica o la sicurezza dell'AI (vedi "best practice per la sicurezza dell'AI").