Publicado: 5 de junio de 2024
Colaboradores: Annie Badman, Matthew Kosinski
Abreviatura de seguridad de inteligencia artificial (IA) , la seguridad de IA es el proceso de emplear la IA para mejorar la postura de seguridad de una organización. Con los sistemas de IA, las organizaciones pueden automatizar la detección, prevención y corrección de amenazas para combatir mejor los ciberataques y las violaciones de datos.
Las organizaciones pueden incorporar la IA en las prácticas de ciberseguridad de muchas maneras. Las herramientas de seguridad de IA más comunes emplean machine learning y el aprendizaje profundo para analizar grandes cantidades de datos, incluidas las tendencias de tráfico, el uso de aplicaciones, los hábitos de navegación y otros datos de actividad de la red.
Este análisis permite a la IA descubrir patrones y establecer una línea de base de seguridad. Cualquier actividad fuera de esa línea de base se marca inmediatamente como una anomalía y una posible amenaza cibernética, lo que permite una corrección rápida.
Las herramientas de seguridad de IA también emplean con frecuencia la IA generativa (IA gen), popularizada por los modelos de lenguaje de gran tamaño (LLM), para convertir los datos de seguridad en recomendaciones de texto sin formato, lo que agiliza la toma de decisiones de los equipos de seguridad.
Las investigaciones muestran que las herramientas de seguridad de IA mejoran significativamente la detección de amenazas y la respuesta a incidentes. Según IBM Reporte del costo de una filtración de datos , las organizaciones con amplia IA de seguridad y automatización identificaron y contuvieron las filtraciones de datos 108 días más rápido en promedio que las organizaciones sin herramientas de IA.
Además, el reporte encontró que las organizaciones que emplean ampliamente la seguridad de la IA ahorran, en promedio, USD 1.76 millones en los costos de respuesta a las filtraciones de datos. Esa es una diferencia de casi el 40% en comparación con el costo promedio de una filtración para las compañías que no emplean IA.
Por estas razones, la inversión en seguridad de la IA está creciendo. Según un estudio reciente, el mercado de la seguridad de la IA, valorado en USD 20,190 millones en 2023, alcanzará los USD 141,640 millones en 2032, con un crecimiento anual del 24.2%.1
Otra definición de seguridad de IA implica proteger la IA de las amenazas cibernéticas. En este entendimiento, los expertos en ciberseguridad se centran en cómo los actores de amenazas pueden usar la IA para mejorar los ciberataques existentes o explotar todas las nuevas superficies de ataque.
Por ejemplo, los LLM pueden ayudar a los atacantes a crear ataques de phishing más personalizados y sofisticados . Al ser una tecnología relativamente nueva, los modelos de IA también brindan a los actores de amenazas nuevas oportunidades para ataques cibernéticos, como ataques a la cadena de suministro y ataques de adversarios (consulte “Posibles vulnerabilidades y riesgos de seguridad de la IA”).
Esta visión general se centra en la definición de seguridad de la IA, que implica el uso de la IA para mejorar la ciberseguridad. Sin embargo, también incluye información sobre las vulnerabilidades potenciales de la IA y las mejores prácticas para proteger los sistemas de IA.
El panorama actual de las amenazas cibernéticas es complejo. El cambio a entornos de nube y nube híbrida llevó a la dispersión de datos y a la ampliación de las superficies de ataque, mientras que los actores de amenazas continúan encontrando nuevas formas de explotar las vulnerabilidades. Al mismo tiempo, los profesionales de ciberseguridad siguen siendo escasos, con más de 700 000 vacantes solo en Estados Unidos.2
El resultado es que los ciberataques son ahora más frecuentes y costosos. Según el informe Costo de una filtración de datos , el costo promedio global de corregir una filtración de datos en 2023 fue de USD 4.45 millones, un aumento del 15% en tres años.
La seguridad de la IA puede ofrecer una solución. Al automatizar la detección y respuesta a las amenazas, la IA facilita la prevención de ataques y la captura de los autores de las amenazas en tiempo real. Las herramientas de IA pueden ayudar con todo, desde prevenir ataques de malware identificando y aislando software malicioso hasta detectar ataques de fuerza bruta reconociendo y bloqueando intentos repetidos de inicio de sesión.
Con la seguridad de IA, las organizaciones pueden monitorear continuamente sus operaciones de seguridad y emplear algoritmos de machine learning para adaptar a la evolución de las ciberamenazas.
No invertir en seguridad de IA es caro. Las organizaciones sin seguridad de IA se enfrentan a un costo promedio de filtración de datos de USD 5.36 millones, que es un 18.6% más alto que el costo promedio para todas las organizaciones. Incluso aquellos con seguridad de IA limitada informaron un costo promedio de filtración de datos de USD 4.04 millones. Eso es 400 000 USD menos que el promedio general y 28.1 por ciento menos que aquellos que no usan seguridad de IA en absoluto.
A pesar de sus beneficios, la IA plantea desafíos de seguridad, particularmente con la seguridad de los datos. Los modelos de IA son tan confiables como sus datos de entrenamiento. Los datos manipulados o sesgados pueden generar falsos positivos o respuestas inexactas. Por ejemplo, los datos de entrenamiento sesgados empleados para las decisiones de contratación pueden reforzar los sesgos de género o raciales, con modelos de IA que favorecen a ciertos grupos demográficos y discriminan a otros.3
Las herramientas de IA también pueden ayudar a los actores de amenazas a explotar con mayor éxito las vulnerabilidades de seguridad. Por ejemplo, los atacantes pueden emplear la IA para automatizar el descubrimiento de vulnerabilidades del sistema o generar sofisticados ataques de phishing.
Según Reuters, la Oficina Federal de Investigaciones (FBI) vio un aumento de las intrusiones cibernéticas debido a la IA.4 Un reporte reciente también encontró que el 75% de los profesionales sénior de ciberseguridad están viendo más ciberataques, y el 85% atribuye el aumento a los malos actores que emplean IA generativa.5
A pesar de estas preocupaciones, las investigaciones muestran que solo el 24% de los proyectos actuales de IA generativa están protegidos.
En el futuro, muchas organizaciones buscarán formas de invertir tiempo y recursos en IA segura para aprovechar los beneficios de la inteligencia artificial sin comprometer la ética o la seguridad de la IA (consulte "Mejores prácticas de seguridad de IA").
Las capacidades de IA pueden proporcionar beneficios significativos para mejorar las defensas de ciberseguridad.
Algunos de los beneficios más significativos de la seguridad de la IA incluyen:
A pesar de los numerosos beneficios, la adopción de nuevas herramientas de IA puede ampliar la superficie de ataque de una organización y presentar varias amenazas de seguridad.
Algunos de los riesgos de seguridad más comunes que plantea la IA incluyen:
Los sistemas de IA se basan en conjuntos de datos que pueden ser vulnerables a la manipulación, las brechas y otros ataques. Las organizaciones pueden mitigar estos riesgos protegiendo la integridad, la confidencialidad y la disponibilidad de los datos a lo largo de todo el ciclo de vida de la IA, desde el desarrollo hasta la capacitación y el despliegue.
Los actores de amenazas pueden apuntar a los modelos de IA para robo, ingeniería inversa o manipulación no autorizada. Los atacantes pueden comprometer la integridad de un modelo al alterar su arquitectura, pesos o parámetros, los componentes centrales que determinan el comportamiento y el rendimiento de un modelo de IA.
Los ataques de adversarios consisten en manipular los datos de entrada para engañar a los sistemas de IA, lo que da lugar a predicciones o clasificaciones incorrectas. Por ejemplo, los atacantes podrían generar ejemplos adversos que aprovechen las vulnerabilidades de los algoritmos de IA para interferir en la toma de decisiones de los modelos de IA o producir sesgos.
Del mismo modo, las inyecciones de avisos emplean avisos maliciosos para engañar a las herramientas de IA y hacer que realicen acciones dañinas, como filtrar datos o eliminar documentos importantes.
Si los equipos de seguridad no priorizan la seguridad y la ética al implementar sistemas de IA, corren el riesgo de cometer violaciones de privacidad y exacerbar sesgos y falsos positivos. Solo con una implementación ética, las organizaciones pueden garantizar la equidad, la transparencia y la responsabilidad en la toma de decisiones de IA.
Cumplir con los requisitos legales y normativos es esencial para garantizar el uso legal y ético de los sistemas de IA. Las organizaciones deben cumplir con regulaciones como el Reglamento General de Protección de Datos (GDPR), California Consumer Privacy Act (CCPA) y la Ley de IA de la UE o arriesgar a exponer datos confidenciales y enfrentar fuertes sanciones legales.
Los ataques de manipulación de entrada implican alterar los datos de entrada para influir en el comportamiento o los resultados de los sistemas de IA. Los atacantes pueden manipular los datos de entrada para evadir la detección, eludir las medidas de seguridad o influir en los procesos de toma de decisiones, lo que puede generar resultados sesgados o inexactos.
Por ejemplo, los actores de amenazas pueden comprometer los resultados de un sistema de IA en ataques de envenenamiento de datos al alimentarlo intencionalmente con datos de entrenamiento incorrectos.
Los ataques a la cadena de suministro ocurren cuando los actores de amenazas se dirigen a los sistemas de IA a nivel de la cadena de suministro, incluso en sus etapas de desarrollo, despliegue o mantenimiento. Por ejemplo, los atacantes pueden explotar vulnerabilidades en componentes de terceros, bibliotecas de software o módulos empleados en el desarrollo de IA, lo que provoca filtraciones de datos o acceso no autorizado.
Los modelos de IA pueden experimentar desviaciones o deterioros con el tiempo, lo que lleva a una degradación del rendimiento o la eficacia. Los adversarios pueden explotar las debilidades de un modelo de IA en descomposición o a la deriva para manipular los resultados. Las organizaciones pueden monitorear los modelos de IA en busca de cambios en el rendimiento, el comportamiento o la precisión para mantener su confiabilidad y relevancia.
Las aplicaciones de la IA en la ciberseguridad son diversas y evolucionan continuamente a medida que las herramientas de IA se vuelven más avanzadas y accesibles.
Algunos de los casos de uso más comunes de la seguridad de la IA en la actualidad incluyen:
Las herramientas de IA pueden ayudar a las organizaciones a mejorar la protección de datos clasificando datos confidenciales, monitoreando el movimiento de datos y previniendo el acceso no autorizado o la exfiltración. La IA también puede optimizar los procesos de cifrado y tokenización para proteger los datos en reposo y en tránsito.
Además, la IA puede adaptar automáticamente al panorama de amenazas y monitorear continuamente las amenazas durante todo el día, lo que permite a las organizaciones adelantar a las amenazas cibernéticas emergentes.
La seguridad endpoint implica proteger los endpoints, como computadoras, servidores y dispositivos móviles, de las amenazas de ciberseguridad.
La IA puede mejorar las soluciones existentes de detección y respuesta de puntos finales (EDR) al monitorearlos continuamente para detectar comportamientos sospechosos y anomalías y así detectar amenazas de seguridad en tiempo real.
Los algoritmos de machine learning también pueden ayudar a identificar y mitigar amenazas avanzadas de punto final, como malware sin archivos y ataques de día cero, antes de que causen daño.
La IA puede ayudar a proteger los datos confidenciales en entornos de nube híbrida identificando automáticamente los datos ocultos, monitoreando las anomalías en el acceso a los datos y alertando a los profesionales de ciberseguridad sobre las amenazas a medida que ocurren.
Las plataformas de caza de amenazas buscan de forma proactiva signos de actividad maliciosa dentro de la red de una organización.
Con las integraciones de IA, estas herramientas pueden volver aún más avanzadas y eficientes al analizar grandes conjuntos de datos, identificar signos de intrusión y permitir una detección y respuesta más rápidas a amenazas avanzadas.
A medida que los ataques cibernéticos y el robo de identidad se vuelven más comunes, las instituciones financieras necesitan formas de proteger a sus clientes y activos.
La IA ayuda a estas instituciones analizando automáticamente los datos transaccionales en busca de patrones que indiquen fraude. Además, los algoritmos de machine learning pueden adaptar a amenazas nuevas y en evolución en tiempo real, lo que permite a los bancos mejorar continuamente sus capacidades de detección de fraude y adelantar a los actores de amenazas.
Las herramientas de seguridad de IA suelen ser más efectivas cuando se integran con la infraestructura de seguridad existente de una organización.
Por ejemplo, la orquestación, automatización y respuesta de seguridad (SOAR) es una solución de software que muchas organizaciones utilizan para optimizar las operaciones de seguridad. La IA puede integrar con las plataformas SOAR para automatizar tareas rutinarias y flujos de trabajo. Esta integración puede permitir una respuesta más rápida a los incidentes y liberar a los analistas de seguridad para que se centren en problemas más complejos.
Las herramientas de gestión de identidad y acceso (IAM) gestionan cómo los usuarios acceden a los recursos digitales y qué pueden hacer con ellos. Su objetivo es mantener alejados a los piratas informáticos y garantizar que cada usuario tenga exactamente las licencias que necesita y nada más.
Las soluciones IAM impulsadas por IA pueden mejorar este proceso al proporcionar controles de acceso granulares basados en roles, responsabilidades y comportamiento, garantizando además que solo los usuarios autorizados puedan acceder a datos confidenciales.
La IA también puede mejorar los procesos de autenticación mediante el uso dmachine learning para analizar los patrones de comportamiento de los usuarios y habilitar medidas de autenticación adaptativas que cambian en función de los niveles de riesgo de los usuarios individuales.
Los LLM como ChatGPT hicieron que los ataques de phishing sean más fáciles de realizar y más difíciles de reconocer. Sin embargo, la IA también se convirtió en una herramienta crítica para combatir el phishing.
Los modelos de machine learning pueden ayudar a las organizaciones a analizar emails y otras comunicaciones en busca de signos de phishing, mejorando la precisión de la detección y reduciendo los intentos de phishing exitosos. Las soluciones de seguridad de email impulsadas por IA también pueden proporcionar inteligencia de amenazas en tiempo real y respuestas automatizadas para detectar ataques de phishing a medida que ocurren.
Gestión de vulnerabilidades es el descubrimiento, la priorización, la mitigación y la resolución continuos de vulnerabilidades de seguridad en la infraestructura y el software de TI de una organización.
La IA puede mejorar los escáneres de vulnerabilidades tradicionales priorizando automáticamente las vulnerabilidades en función del impacto potencial y la probabilidad de explotación. Esto ayuda a las organizaciones a abordar primero los riesgos de seguridad más críticos.
La IA también puede automatizar la gestión de parches para reducir rápidamente la exposición a las ciberamenazas.
Para equilibrar los riesgos y beneficios de seguridad de la IA, muchas organizaciones elaboran estrategias explícitas de seguridad de IA que describen cómo las partes interesadas deben desarrollar, implementar y gestionar los sistemas de IA.
Si bien estas estrategias varían necesariamente de una compañía a otra, algunas de las mejores prácticas comúnmente empleadas incluyen:
Las prácticas de gobernanza de datos y gestión de riesgos pueden ayudar a proteger la información confidencial empleada en los procesos de IA mientras se mantiene la eficacia de la IA.
Mediante el uso de conjuntos de datos de entrenamiento relevantes y precisos y la actualización periódica de los modelos de IA con nuevos datos, las organizaciones pueden ayudar a garantizar que sus modelos se adapten a las amenazas en evolución a lo largo del tiempo.
La integración de las herramientas de IA con la infraestructura de ciberseguridad existente, como las fuentes de inteligencia de amenazas y los sistemas SIEM, puede ayudar a maximizar la eficacia y, al mismo tiempo, minimizar las interrupciones y el tiempo de inactividad que pueden surgir con el despliegue de nuevas medidas de seguridad.
Mantener la transparencia en los procesos de IA mediante la documentación de algoritmos y fuentes de datos y la comunicación abierta con las partes interesadas sobre el uso de la IA puede ayudar a identificar y mitigar posibles sesgos e injusticias.
Si bien las herramientas de IA pueden mejorar la postura de seguridad, también pueden beneficiarse de sus propias medidas de seguridad.
Las herramientas de cifrado, controles de acceso y monitoreo de amenazas pueden ayudar a las organizaciones a proteger sus sistemas de IA y los datos confidenciales que emplean.
La supervisión continua del rendimiento, el cumplimiento y la precisión de los sistemas de IA puede ayudar a las organizaciones a cumplir los requisitos normativos y perfeccionar los modelos de IA con el tiempo.
Proteja los datos en múltiples entornos, cumpla la normativa sobre privacidad y simplifique la complejidad operativa.
Obtenga una amplia visibilidad, cumplimiento de normas y protección a lo largo del ciclo de vida de seguridad de datos con IBM Guardium.
La familia IBM Verify proporciona funcionalidades automatizadas, basadas en la nube y locales para gestionar la gobernanza de identidades, la fuerza laboral y la identidad y el acceso de los consumidores, y controlar las cuentas privilegiadas.
Todos los enlaces se encuentran fuera de ibm.com
1. Se prevé que el tamaño del mercado de IA en ciberseguridad alcance los 141.64 mil millones de dólares para 2032, a una tasa compuesta anual del 24.2%: Polaris Market Research. Yahoo. 12 de marzo de 2024.
2. Por qué es importante superar la escasez de mano de obra en ciberseguridad para el éxito de la compañía. Forbes. 1 de marzo de 2023.
3. Las herramientas de contratación de IA pueden estar filtrando a los mejores solicitantes de empleo. BBC. 16 de febrero de 2024.
4. Los avances de la IA corren el riesgo de facilitar los delitos cibernéticos, afirman altos funcionarios estadounidenses. Reuters. 9 de enero de 2024.
5.Un estudio de Deep Instinct encuentra un aumento significativo en los ataques de ciberseguridad impulsados por la IA generativa. Cable de negocios. 23 de agosto de 2023.