La mejor apuesta de las empresas para el futuro: asegurar la IA generativa
6 de mayo de 2024
4 minutos de lectura
Estudio de IBM y AWS: menos del 25 % de los proyectos actuales de IA generativa están protegidos 

El mundo empresarial lleva mucho tiempo basándose en la noción de que la confianza es la moneda de los buenos negocios. Pero a medida que la IA transforma y redefine la forma en que las empresas funcionan y los clientes interactúan con ellas, hay que fomentar la confianza en la tecnología.

Los avances en IA pueden liberar capital humano para centrarse en productos de alto valor. Esta evolución tendrá un impacto transformador en el crecimiento del negocio, pero las experiencias de los usuarios y los clientes dependen del compromiso de las organizaciones para crear soluciones tecnológicas seguras, responsables y fiables.

Las empresas deben determinar si la IA generativa que interactúa con los usuarios es de confianza, y la seguridad es un componente fundamental de la confianza. Aquí radica una de las mayores apuestas a las que se enfrentan las empresas: asegurar sus implementaciones de IA.

 

Innove ahora, asegure después: una desconexión

El IBM Institute for Business Value ha publicado hoy el estudio Securing generative AI: What matters now, coescrito por IBM y AWS, que presenta nuevos datos, prácticas y recomendaciones sobre la seguridad de las implementaciones de IA generativa. Según el estudio de IBM, el 82 % de los encuestados del equipo directivo afirmaron que la IA segura y fiable es esencial para el éxito de sus negocios. Aunque esto suena prometedor, el 69 % de los líderes encuestados también indicaron que cuando se trata de IA generativa, la innovación tiene prioridad sobre la seguridad.

Priorizar entre la innovación y la seguridad puede parecer una elección, pero en realidad es una prueba. Hay una clara tensión aquí; las organizaciones reconocen que lo que está en juego es más importante que nunca con la IA generativa, pero no están aplicando sus lecciones aprendidas de anteriores disrupciones tecnológicas. Al igual que la transición a la nube híbrida, el desarrollo ágil de software o zero trust, la seguridad generativa de la IA puede ser una ocurrencia tardía. A más del 50 % de los encuestados les preocupan los riesgos impredecibles que afectan a las iniciativas de IA generativa y temen que creen un mayor potencial de interrupción del negocio. Sin embargo, informan que solo el 24 % de los proyectos actuales de IA generativa están asegurados. ¿Por qué hay tanta desconexión?

La indecisión en materia de seguridad puede ser tanto un indicador como el resultado de una carencia más amplia de conocimientos sobre IA generativa. Casi la mitad de los encuestados (47 %) dijeron que no estaban seguros de dónde y cuánto invertir en lo que respecta a la IA generativa. Incluso mientras los equipos prueban nuevas capacidades, los líderes siguen trabajando en qué casos de uso de IA generativa tienen más sentido y cómo los escalan para sus entornos de producción.

La seguridad de la IA generativa comienza con el gobierno

No saber por dónde empezar puede ser también el inhibidor de la acción de seguridad. Por este motivo, IBM y AWS han unido sus esfuerzos para elaborar una guía de actuación y recomendaciones prácticas para las organizaciones que deseen proteger su IA.

Para establecer confianza y seguridad en su IA generativa, las organizaciones deben comenzar con lo básico, con la gobernanza como base. De hecho, el 81 % de los encuestados indicó que la IA generativa requiere un modelo de gobierno de la seguridad fundamentalmente nuevo. Empezando por el gobierno, el riesgo y el cumplimiento (GRC), los líderes pueden construir los cimientos de una estrategia de ciberseguridad para proteger su arquitectura de IA que esté alineada con los objetivos empresariales y los valores de la marca.

Para que cualquier proceso sea seguro, primero hay que entender cómo debe funcionar y cómo debe ser el proceso esperado para poder identificar las desviaciones. La IA que se desvía de aquello para lo que fue diseñada operativamente puede introducir nuevos riesgos con repercusiones imprevistas en el negocio. Por lo tanto, identificar y entender esos posibles riesgos ayuda a las organizaciones a entender su propio umbral de riesgo, basándose en sus requisitos normativos y de cumplimiento únicos.

Una vez establecidas las barreras de gobierno, las organizaciones pueden establecer de manera más eficaz una estrategia para proteger el flujo de trabajo de la IA. Los datos, los modelos y su uso, así como la infraestructura subyacente que están construyendo y en la que están integrando sus innovaciones de IA. Aunque el modelo de responsabilidad compartida en materia de seguridad puede cambiar en función de cómo utilice la organización la IA generativa. Hay muchas herramientas, controles y procesos disponibles para ayudar a mitigar el riesgo de impacto comercial a medida que las organizaciones desarrollan sus propias operaciones de IA.

Las organizaciones también deben reconocer que, aunque las alucinaciones, la ética y los prejuicios suelen ser lo primero que viene a la mente cuando se piensa en una IA confiable, el proceso de IA enfrenta un panorama de amenazas que pone en riesgo la confianza misma. Las amenazas convencionales adquieren un nuevo significado, las nuevas amenazas utilizan las capacidades ofensivas de la IA como un nuevo vector de ataque, y las nuevas amenazas tratan de poner en peligro los activos y servicios de IA en los que confiamos cada vez más.

La ecuación confianza-seguridad

La seguridad puede ayudar a aportar confianza a los casos de uso de la IA generativa. Para lograr esta sinergia, las organizaciones deben adoptar un enfoque de aldea. La conversación debe ir más allá de las partes interesadas en SI y TI para llegar a la estrategia, el desarrollo de productos, el riesgo, la cadena de suministro y el compromiso con el cliente.

Dado que estas tecnologías son a la vez transformadoras y disruptivas, la gestión de la IA y de la IA generativa de la organización requiere la colaboración entre los dominios de seguridad, tecnología y negocio.

Un socio tecnológico puede desempeñar un papel clave. Utilizar la amplitud y profundidad de la experiencia de los socios tecnológicos en todo el ciclo de vida de las amenazas y en todo el ecosistema de seguridad puede ser un activo inestimable. De hecho, el estudio de IBM reveló que más del 90 % de las organizaciones encuestadas están habilitadas a través de un producto de terceros o un socio tecnológico para sus soluciones de seguridad de IA generativa. A la hora de seleccionar un socio tecnológico para sus necesidades de seguridad de IA generativa, las organizaciones encuestadas informaron de lo siguiente:

  • El 76 % busca un socio que le ayude a crear un caso de costes convincente con un sólido retorno de la inversión.
  • El 58 % busca orientación sobre una estrategia general y una hoja de ruta.
  • El 76 % busca socios que puedan facilitar la formación, el intercambio de conocimientos y la transferencia de conocimientos.
  • El 75 % elige socios que puedan guiarlos en el cambiante panorama del cumplimiento legal y normativo.

El estudio deja claro que las organizaciones reconocen la importancia de la seguridad para sus innovaciones de IA, pero todavía están tratando de entender cuál es la mejor manera de abordar la revolución de la IA. Establecer relaciones que puedan ayudar a guiar, asesorar y respaldar técnicamente estos esfuerzos es el siguiente paso crucial en la IA generativa protegida y fiable. Además de compartir información clave sobre las percepciones y prioridades de los ejecutivos, IBM y AWS han incluido una guía de acción con recomendaciones prácticas para llevar su estrategia de seguridad de IA generativa al siguiente nivel.

 
Autor
Dimple Ahluwalia VP & Global Senior Partner, Security Services