Publicado el: 6 de septiembre de 2024
Colaboradores: Alexandra Jonker, Alice Gomstyn, Amanda McGrath
La transparencia de la IA ayuda a las personas a acceder a la información para comprender mejor cómo se creó un sistema de inteligencia artificial (IA) y cómo toma decisiones.
Los investigadores a veces describen la inteligencia artificial como una "caja negra", ya que aún puede ser difícil explicar, gestionar y regular los resultados de la IA debido a la creciente complejidad de la tecnología. La transparencia de la IA ayuda a abrir esta caja negra para comprender mejor los resultados de la IA y cómo los modelos toman decisiones.
Un número creciente de industrias de alto riesgo (incluidas las finanzas, la atención médica, los recursos humanos (HR) y la aplicación de la ley) dependen de modelos de IA para la toma de decisiones. Mejorar la comprensión de las personas sobre cómo se capacitan estos modelos y cómo determinan los resultados genera confianza en las decisiones de IA y en las organizaciones que los utilizan.
Los creadores de IA pueden lograr una IA transparente y confiable a través de la divulgación. Pueden documentar y compartir la lógica y el razonamiento del algoritmo de IA subyacente, las entradas de datos empleadas para capacitar el modelo, los métodos empleados para la evaluación y validación del modelo y más. Esto permite a las partes interesadas evaluar la precisión predictiva del modelo frente a la imparcialidad, las desviaciones y los sesgos.
Un alto nivel de transparencia es esencial para una IA responsable. La IA responsable es un conjunto de principios que ayuda a guiar el diseño, desarrollo, implementación y uso de IA. Considera el impacto social más amplio de los sistemas de IA y las medidas que se requieren para alinear estas tecnologías con los valores de las partes interesadas, las normas legales y las consideraciones éticas.
Las aplicaciones de IA como chatbots de IA generativa, agentes virtuales y motores de recomendación son utilizados hoy en día por diez millones de personas en todo el mundo. La transparencia sobre el funcionamiento de estas herramientas de IA probablemente no sea una preocupación para este nivel de toma de decisiones de bajo riesgo: si el modelo resulta inexacto o sesgado, los usuarios podrían perder algo de tiempo o ingresos disponibles.
Sin embargo, cada vez más sectores están adoptando aplicaciones de IA para fundamentar la toma de decisiones de alto riesgo. Por ejemplo, la IA ahora ayuda a las compañías y a los usuarios a tomar decisiones de inversión, diagnósticos médicos, decisiones de contratación, sentencias penales y más. En estos casos, las posibles consecuencias de resultados sesgados o inexactos de la IA son mucho más peligrosas. Las personas pueden perder ahorros de toda la vida, oportunidades profesionales o años de sus vidas.
Para que las partes interesadas confíen en que la IA está tomando decisiones eficaces y justas en su nombre, necesitan visibilidad de cómo funcionan los modelos, la lógica de los algoritmos y cómo se evalúa la precisión y equidad del modelo. También necesitan saber más sobre los datos empleados para capacitar y ajustar el modelo, incluidas las fuentes de datos y cómo se procesan, ponderan y etiquetan los datos.
Además de generar confianza, la transparencia de la IA fomenta el intercambio de conocimientos y la colaboración en todo el ecosistema de IA, contribuyendo a los avances en el desarrollo de IA. Y al ser transparentes de forma predeterminada, las organizaciones pueden centrarse más en el uso de tecnologías de IA para lograr los objetivos del negocio y preocuparse menos por la confiabilidad de la IA.
La red de requisitos normativos que rodean el uso de la IA está en constante evolución. Los procesos de modelos transparentes son críticos para el cumplimiento de estas regulaciones y para atender las solicitudes de validadores de modelos, auditores y reguladores. La Ley de IA de la UE se considera el primer marco regulatorio integral del mundo para la IA.
La Ley de Inteligencia Artificial de la Unión Europea (UE) adopta un enfoque de regulación basado en el riesgo, aplicando diferentes reglas a la IA según el riesgo que plantean. Prohíbe algunos usos de la IA e implementa requisitos estrictos de gobernanza, gestión de riesgos y transparencia para otros. Existen obligaciones de transparencia adicionales para tipos específicos de IA. Por ejemplo:
La implementación del Reglamento General de Protección de Datos (RGPD) de la UE llevó a otros países a adoptar regulaciones de privacidad de datos personales. Del mismo modo, los expertos predicen que la Ley de IA de la UE impulsará el desarrollo de normas de gobernanza y ética de la IA en todo el mundo.
La mayoría de los países y regiones aún tienen que promulgar leyes o regulaciones integrales con respecto al uso de la IA; sin embargo, hay varios marcos extensos disponibles. Aunque no siempre se pueden hacer cumplir, existen para guiar la futura regulación y el desarrollo y uso responsable de la IA. Algunos ejemplos notables son:
La transparencia de la IA está estrechamente relacionada con los conceptos de explicabilidad e interpretabilidad de la IA. Estos conceptos proporcionan información que ayuda a abordar el problema de la "caja negra" de larga data: el problema práctico y ético de que los sistemas de IA son tan sofisticados que son imposibles de interpretar para los humanos. Sin embargo, tienen definiciones y casos de uso distintos:
La explicabilidad de la IA, o IA explicable (XAI), es un conjunto de procesos y métodos que permiten a los usuarios humanos comprender y confiar en los resultados y resultados creados por los modelos de aprendizaje automático. La explicabilidad del modelo analiza cómo un sistema de IA llega a un resultado específico y ayuda a caracterizar la transparencia del modelo.
La interpretabilidad de la IA se refiere a hacer que el proceso general de la IA sea comprensible para un humano. La interpretabilidad de la IA proporciona información significativa sobre la lógica subyacente, la importancia y las consecuencias anticipadas del sistema de IA. Es la tasa de éxito que los humanos pueden predecir para el resultado de lo producido por la IA, mientras que la explicabilidad va un paso más allá y examina cómo el modelo de IA llegó al resultado.
La transparencia de la IA va más allá de simplemente explicar los procesos de toma de decisiones de la IA. Abarca factores relacionados con el desarrollo de sistemas de IA y su implementación, como los datos de entrenamiento de la IA y quién tiene acceso a ellos.
Si bien la transparencia de la IA difiere según el caso de uso, la organización y la industria, existen algunas estrategias que las compañías pueden tener en cuenta al crear sistemas de IA. A un alto nivel, estas estrategias incluyen tener principios claros de confianza y transparencia, poner esos principios en práctica e integrarlos en todo el ciclo de vida de la IA.
Una estrategia más específica para la transparencia de la IA es la divulgación exhaustiva en cada etapa del ciclo de vida de la IA. Para proporcionar divulgación, las organizaciones deben determinar qué información compartir y cómo compartirla.
El caso de uso del modelo, la industria, la audiencia y otros factores ayudarán a determinar qué información se debe divulgar. Por ejemplo, los usos de IA de mayor riesgo (como las evaluaciones de hipotecas) probablemente requerirán una divulgación más completa que las aplicaciones de menor riesgo (como la clasificación de audio para asistentes virtuales).
La divulgación puede incluir toda o parte de la siguiente información sobre el modelo:
Cada rol en el ciclo de vida de la IA puede aportar información, distribuyendo la responsabilidad en todo el ecosistema en lugar de un individuo. Existen plataformas y herramientas de software disponibles que pueden ayudar a automatizar la recopilación de información y otras actividades de gobernanza de la IA.
Las organizaciones pueden presentar información para la transparencia de la IA en varios formatos, como documentos impresos o videos. El formato depende tanto de la audiencia como del caso de uso. ¿La información está destinada a un consumidor y, por lo tanto, debe ser fácilmente digerible? ¿O está destinado a un científico de datos o regulador y, por lo tanto, necesita un alto nivel de detalle técnico?
Los formatos pueden incluir:
Las prácticas de IA transparentes tienen muchos beneficios, pero también plantean problemas de seguridad y privacidad. Por ejemplo, cuanta más información se proporcione sobre el funcionamiento interno de un proyecto de IA, más fácil será para los piratas informáticos encontrar y explotar vulnerabilidades. OpenAI abordó este desafío en su Reporte Técnico GPT-4, afirmando:
“Teniendo en cuenta tanto el panorama competitivo como las participaciones de seguridad de los modelos a gran escala como GPT-4, este reporte no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, el cálculo de entrenamiento, la construcción del conjunto de datos, el método de entrenamiento o similares”.4
La cita también revela otro desafío de transparencia de la IA: el equilibrio entre transparencia y protección de la propiedad intelectual. Otros obstáculos podrían incluir explicar claramente los programas intrincados y complejos y los algoritmos de aprendizaje automático (como neural networks) a los no expertos y la falta de estándares de transparencia a nivel mundial para la IA.
Dirija, gestione y monitoree las actividades de inteligencia artificial (IA) de su organización.
Nuestro equipo diverso y global de más de 20 000 expertos en IA puede ayudarlo a diseñar y escalar rápida y seguramente soluciones de IA innovadoras y automatización en toda su compañía.
IBM Research está desarrollando herramientas para que la IA sea más explicable, justa, estable, privada y transparente.
Gestione los requisitos de cumplimiento normativo y administración interna con los servicios de IBM Cloud.
Una hoja informativa es una recopilación de información relevante (hechos) sobre la creación y el despliegue de un modelo o servicio de IA.
La Ley de IA de la UE es una ley que rige el desarrollo y uso de la inteligencia artificial en la UE.
El sesgo algorítmico ocurre cuando los errores sistemáticos en los algoritmos de machine learning producen resultados injustos o discriminatorios.
La IA responsable es un conjunto de principios que ayudan a orientar el diseño, el desarrollo, la implantación y el uso de la IA.
Todos los enlaces se encuentran fuera de ibm.com
1. “Orden ejecutiva sobre el desarrollo y uso seguro, protegido y confiable de la inteligencia artificial”, La Casa Blanca, 30 de octubre de 2023.
2. “Aviso y explicación”, La Casa Blanca.
3. “Principios rectores internacionales del Proceso de Hiroshima para las organizaciones que desarrollan sistemas avanzados de inteligencia artificial”, Ministerio de Asuntos exteriores de Japón, 2023.
4. “GPT-4 Technical Report”, arXiv, 15 de marzo de 2023.