Lo desarrolló la firma de investigación y consultoría Gartner y "ofrece soluciones proactivas para identificar y mitigar estos riesgos, garantizando la fiabilidad, la confianza y la seguridad"2.
Aunque existen numerosos marcos independientes que se centran específicamente en la confianza en la IA, el riesgo de la IA o la seguridad de la IA, según los investigadores, es difícil integrarlos y sincronizarlos. Esta falta de coordinación puede dar lugar a una gestión fragmentada de la IA. También puede dar lugar a lagunas de conocimiento sobre los riesgos y las consecuencias para la seguridad derivados de la implementación y las prácticas de IA.
Sin embargo, el marco AI TRiSM proporciona un enfoque unificado. Reúne las partes importantes de diferentes marcos para una gestión más integral de las tecnologías de IA.
Los partidarios de la IA TRiSM consideran que el marco es importante para mitigar los riesgos y las ciberamenazas relacionados con el avance y el uso creciente de la IA generativa (IA gen), como los modelos de lenguaje de gran tamaño (LLM). El uso generativo de la IA puede aumentar las superficies de ataque de las organizaciones, permitir ciberataques más sofisticados por parte de los hackers y plantear consideraciones éticas novedosas. Los beneficios de las aplicaciones de IA TRiSM en ámbitos como la sanidad y las finanzas incluyen la mitigación de riesgos, medidas mejoradas para la supervisión de modelos y salvaguardas contra ataques de adversarios y accesos no autorizados3.
Según Gartner, “la gestión de la confianza, el riesgo y la seguridad de la IA (AI TRiSM) garantiza:
El gobierno de la IA se refiere a los procesos, normas y barreras que ayudan a garantizar que los sistemas y herramientas de IA sean seguros y éticos. El gobierno de la IA eficaz incluye la gestión de riesgos, con mecanismos para abordar posibles sesgos, violaciones de protección de datos y otras preocupaciones, al tiempo que genera confianza y apoya la innovación.
Implica la supervisión y la evaluación continua de los sistemas de IA para garantizar que cumplan con las normas éticas y las regulaciones legales establecidas. El gobierno de la IA incluye el gobierno de datos, una disciplina de gestión de datos diseñada para mantener datos seguros y de alta calidad a los que se pueda acceder fácilmente para la detección de datos e inteligencia empresarial iniciativas.
Las diferentes organizaciones y marcos hacen hincapié en varios principios rectores y objetivos para determinar la fiabilidad de los sistemas de IA. Los principios de la IA fiable citados con frecuencia incluyen la responsabilidad, la explicabilidad y la interpretabilidad.
Cuando los usuarios del modelo de IA y otros stakeholders tienen problemas para entender cómo funciona un modelo, puede obstaculizar su confianza en el sistema de IA. Los procesos y metodologías adecuados pueden ayudar a los usuarios a comprender y confiar en los procesos de toma de decisiones y los resultados de los modelos de machine learning.
La equidad a menudo implica mitigar o eliminar el sesgo en los modelos de IA y los datos de IA durante el ciclo de vida del desarrollo de IA. Los modelos de IA absorben los sesgos de la sociedad que pueden integrarse en sus datos de entrenamiento. La recopilación de datos sesgada que refleja la inequidad social puede resultar en perjuicio para grupos históricamente marginados en la calificación crediticia, la contratación y otras áreas.
Identificar y abordar los sesgos en la IA requiere la capacidad de dirigir, gestionar y supervisar las actividades de IA de una organización. Esto se puede lograr a través del gobierno de la IA, específicamente, la creación de políticas y prácticas para guiar el desarrollo de IA responsable y el uso de tecnologías de IA.
En general, la fiabilidad se refiere a la capacidad de algo para funcionar según lo previsto o requerido durante un periodo determinado en ciertas condiciones. Con respecto a los sistemas de IA, cumplir las expectativas de rendimiento incluye proporcionar outputs correctos durante un periodo que puede extenderse tanto como la vida útil del sistema5.
La protección de datos es la práctica de salvaguardar los datos sensibles de la pérdida y corrupción. La protección de datos tiene como objetivo preservar la disponibilidad de los datos y garantizar que los usuarios puedan acceder a los datos para las operaciones empresariales, incluso si los datos se dañan o se pierden en una vulneración de datos o un ataque de malware.
La protección de datos abarca la seguridad de datos (la protección de la información digital contra el acceso no autorizado, la corrupción o el robo) y la protección de datos (el principio de que una persona debe tener control sobre sus datos personales). La protección de datos es clave para el cumplimiento de los principales regímenes normativos, como el Reglamento General Europeo de Protección de Datos (RGPD).
Tanto las tecnologías tradicionales como las soluciones más nuevas y específicas para la IA son compatibles con la AI TriSM. Las primeras incluyen herramientas para proporcionar gestión de identidades y accesos (IAM) y soluciones para la gestión de la posición de seguridad de los datos.
Las tecnologías específicas de IA para AI TRiSM varían según el proveedor. Algunos se centran en determinadas funciones, como la seguridad o el cumplimiento. Otros ofrecen productos más completos con una variedad de capacidades para el gobierno de la IA y la inspección y la aplicación del tiempo de ejecución de la IA:
El software de gobierno de la IA puede permitir a las empresas registrar y supervisar automáticamente la información del modelo, incluidas las actividades de desarrollo de la IA, para respaldar las auditorías; llevar a cabo evaluaciones de riesgos; evaluar el rendimiento del modelo y prevenir la generación de contenido dañino; y gestionar el cumplimiento normativo. Aunque algunas herramientas de gobierno se limitan a modelos de IA creados internamente para una organización, otras pueden aplicarse a modelos creados en plataformas de terceros, como Amazon Bedrock y Microsoft Azure.
Según un webinar de Gartner, las funciones de inspección y aplicación en tiempo de ejecución de la IA abarcan modelos de IA, aplicaciones de IA y agentes de IA. Los modelos de IA, las aplicaciones de IA y los agentes de IA proporcionan "cumplimiento de los controles internos y externos" y las aplicaciones de IA proporcionan "control de acceso basado en el contexto y clasificación dinámica de datos contextuales"6.
Existen múltiples casos de uso para implementar AI TRiSM en la implementación y la gestión de la IA empresarial. Entre ellos figuran:
Los profesionales médicos utilizan cada vez más herramientas con IA para diversos fines, desde la automatización de dispositivos médicos hasta el análisis de imágenes. Un programa AI TRiSM puede ayudar a proteger los datos sanitarios utilizados en estos sistemas de las vulneraciones de datos. Medidas como los controles de acceso, por ejemplo, pueden mitigar los riesgos potenciales del acceso no autorizado.
Cuando se utilizan conjuntos de datos que contienen sesgos demográficos para entrenar algoritmos de IA, los resultados pueden estar sesgados. Este ha sido un problema conocido en el sector financiero, que ha afectado a la aprobación de préstamos, a los tipos de interés y a otros aspectos. En Dinamarca, la Asociación Empresarial Danesa aplicó prácticas de AI TRiSM realizando pruebas de imparcialidad para validar las predicciones de los modelos de IA que supervisan las transacciones financieras, aumentando la confianza de los clientes7.
Además de garantizar una mayor equidad en las transacciones financieras, las medidas de AI TRiSM pueden ayudar a proteger los sistemas de detección del fraude de las instituciones financieras de los ataques adversarios8. Estas soluciones de IA también ayudan a los bancos a cumplir con los requisitos legales sobre protección de los consumidores y salvaguardar la información confidencial.
Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube o en las instalaciones con IBM watsonx.governance.
Vea cómo el gobierno de la IA puede ayudar a aumentar la confianza de sus empleados en la misma, acelerar la adopción y la innovación y mejorar la confianza de los clientes.
Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.
1 Glosario de Gartner. AI TRiSM. https://www.gartner.com/en/information-technology/glossary/ai-trism. GARTNER es una marca registrada y una marca de servicio de Gartner, Inc. y/o sus filiales en EE. UU. e internacionalmente y se utiliza aquí con permiso. Todos los derechos reservados.
2, 4 Artículo de Gartner. Tackling Trust, Risk and Security in AI Models. Avivah Litan. 24 de diciembre de 2024. https://www.gartner.com/en/articles/ai-trust-and-ai-risk.
3, 7 “Artificial Intelligence Trust, Risk and Security Management (AI TRiSM): Frameworks, applications, challenges and future research directions”. Sistemas expertos con aplicaciones. 15 de abril de 2024.
5 “AI Risks and Trustworthiness”. Instituto Nacional de Estándares y Tecnología (NIST) Consultado el 23 de febrero de 2025.
6 The Gartner Framework to Manage AI Governance, Trust, Risk and Security. [Webinar] Gartner. Consultado el 28 de enero de 2025. Agenda | The Gartner Framework to Manage AI Governance, Trust, Risk and Security
8 ”The Role of Artificial Intelligence in Modern Finance: Current Applications and Future Prospects”. Applied and Computational Engineering. Diciembre de 2024.