Estudio de IBM y AWS: Menos del 25 % de los proyectos actuales de IA generativa están asegurados
El mundo empresarial operó durante mucho tiempo con la noción de que la confianza es el estándar de un buen negocio. Pero a medida que la IA transforma y redefine la manera en que operan las empresas y cómo los clientes interactúan con ellas, se debe generar confianza en la tecnología.
Los avances en IA pueden liberar capital humano para que se concentre en entregables de alto valor. Esta evolución va a tener un impacto transformador en el crecimiento del negocio, pero las experiencias de los usuarios y de los clientes están ligadas al compromiso de las organizaciones con la creación de soluciones tecnológicas seguras, responsables y confiables.
Las empresas deben determinar si la IA generativa que interactúa con los usuarios es confiable y la seguridad es un componente fundamental de la confianza. Aquí radica una de las mayores apuestas a las que se enfrentan las empresas: proteger sus despliegues de IA.
El IBM® Institute for Business Value publicó hoy el estudio Securing generative AI: What matters now, en colaboración con IBM y AWS, en el que se presentan nuevos datos, prácticas y recomendaciones sobre la seguridad de las implementaciones de IA generativa. Según el estudio de IBM, el 82 % de los encuestados en puestos de altos ejecutivos afirmaron que la IA segura y confiable es esencial para el éxito de sus negocios. Si bien esto suena prometedor, el 69 % de los líderes encuestados también indicaron que, cuando se trata de IA generativa, la innovación tiene prioridad sobre la seguridad.
Priorizar entre innovación y seguridad puede parecer una elección, pero de hecho, es una prueba. Aquí hay una clara tensión. Las organizaciones reconocen que lo que está en juego es más importante que nunca con la IA generativa, pero no están aplicando las lecciones aprendidas de las disrupciones tecnológicas anteriores. Al igual que la transición a la nube híbrida, el desarrollo ágil de software o la confianza cero, la seguridad de la IA generativa puede ser una ocurrencia tardía. Más del 50 % de los encuestados están preocupados por los riesgos impredecibles que afectan las iniciativas de IA generativa y temen que creen un mayor potencial de interrupción del negocio. Sin embargo, informan que solo el 24 % de los proyectos actuales de IA generativa se están asegurando. ¿Por qué hay tal desconexión?
La indecisión en materia de seguridad puede ser tanto un indicador como el resultado de una brecha de conocimiento más amplia sobre la IA generativa. Casi la mitad de los encuestados (47 %) dijeron que no están seguros de dónde y cuánto invertir en lo que respecta a la IA generativa. Incluso a medida que los equipos prueban nuevas capacidades, los líderes siguen trabajando en qué casos de uso de IA generativa tienen más sentido y cómo los escalan para sus entornos de producción.
No saber por dónde empezar puede ser también un factor que inhiba la acción de seguridad. Por este motivo, IBM y AWS unieron sus esfuerzos para elaborar una guía de acción y recomendaciones prácticas para las organizaciones que deseen proteger su IA.
Para establecer confianza y seguridad en su IA generativa, las organizaciones deben comenzar con lo básico, con la gobernanza como base. De hecho, el 81 % de los encuestados indicaron que la IA generativa requiere un modelo de gobernanza de seguridad fundamentalmente nuevo. Al comenzar con la gobernanza, el riesgo y el cumplimiento (GRC), los líderes pueden construir las bases para una estrategia de ciberseguridad para proteger su arquitectura de IA alineada con los objetivos comerciales y los valores de la marca.
Para que cualquier proceso esté protegido, primero debe comprender cómo debe funcionar y cómo debe ser el proceso esperado para que se puedan identificar las desviaciones. La IA que se desvía de aquello para lo que fue diseñada operativamente puede introducir nuevos riesgos con impactos empresariales imprevistos. Por lo tanto, identificar y comprender esos riesgos potenciales ayuda a las organizaciones a comprender su propio umbral de riesgo, fundamentado por sus requisitos normativos y de cumplimiento únicos.
Una vez que se establecen las barreras de gobernanza, las organizaciones pueden establecer de manera más efectiva una estrategia para proteger el pipeline de IA. Los datos, los modelos y su uso, así como la infraestructura subyacente que están construyendo e integrando sus innovaciones de IA. Si bien el modelo de responsabilidad compartida para la seguridad puede cambiar dependiendo de cómo la organización emplee la IA generativa. Hay muchas herramientas, controles y procesos disponibles para ayudar a mitigar el riesgo de impacto en el negocio a medida que las organizaciones desarrollan sus propias operaciones de IA.
Las organizaciones también deben reconocer que, si bien las alucinaciones, la ética y los sesgos suelen ser lo primero que se piensa cuando se trata de IA confiable, el pipeline de IA se enfrenta a un escenario de amenazas que pone en riesgo la confianza misma. Las amenazas convencionales adquieren un nuevo significado, las nuevas amenazas emplean capacidades ofensivas de IA como un nuevo vector de ataque, y las nuevas amenazas buscan comprometer los activos y servicios de IA de los que dependemos cada vez más.
La seguridad puede ayudar a aportar confianza a los casos de uso de IA generativa. Para lograr esta sinergia, las organizaciones deben adoptar un enfoque de aldea. La conversación debe ir más allá de los stakeholders de SI y TI a la estrategia, el desarrollo de productos, el riesgo, la cadena de suministro y la interacción del cliente.
Dado que estas tecnologías son a la vez transformadoras y disruptivas, la gestión de los patrimonios de IA y IA generativa de la organización requiere la colaboración de todos los ámbitos de la seguridad, la tecnología y la empresa.
Un asociado tecnológico puede desempeñar un papel clave. Usar la amplitud y profundidad de la experiencia de los asociados tecnológicos a lo largo del ciclo de vida de las amenazas y en todo el ecosistema de seguridad puede ser un activo inestimable. De hecho, el estudio de IBM reveló que más del 90 % de las organizaciones encuestadas están habilitadas a través de un producto o asociado tecnológico de terceros para sus soluciones de seguridad de IA generativa. A la hora de seleccionar un asociado tecnológico para sus necesidades de seguridad de IA generativa, las organizaciones encuestadas informaron lo siguiente:
El estudio deja en claro que las organizaciones reconocen la importancia de la seguridad para sus innovaciones de IA, pero aún están tratando de entender cuál es la mejor manera de abordar la revolución de la IA. Establecer relaciones que puedan ayudar a guiar, asesorar y respaldar técnicamente estos esfuerzos es el siguiente paso crucial en la IA generativa protegida y confiable. Además de compartir insights clave sobre las percepciones y prioridades de los ejecutivos, IBM y AWS incluyeron una guía de acción con recomendaciones prácticas para llevar su estrategia de seguridad de IA generativa al siguiente nivel.
Obtenga más información sobre el estudio conjunto de IBM y AWS y cómo las organizaciones pueden proteger su pipeline de IA