¿Qué es la IA explicable?
Suscríbase al boletín de IBM
Dos trabajadores sentados en un escritorio compartido, ambos mirando el monitor de una computadora

La inteligencia artificial explicable (IAX) es un conjunto de procesos y métodos que permiten a los usuarios humanos comprender y confiar en los resultados y la producción creados por los algoritmos de aprendizaje automático. 

La IA explicable se utiliza para describir un modelo de IA, su impacto previsto y sus posibles sesgos. Ayuda a caracterizar la precisión del modelo, la imparcialidad, la transparencia y los resultados en la toma de decisiones impulsada por IA. La IA explicable es decisiva para que una organización cree confianza y seguridad a la hora de poner en producción modelos de IA. La explicabilidad de la IA también ayuda a una organización a adoptar un enfoque responsable para el desarrollo de la IA.

A medida que la IA se vuelve más avanzada, los humanos se enfrentan al reto de comprender y repasar cómo el algoritmo llegó a un resultado. Todo el proceso de cálculo se convierte en lo que comúnmente se denomina una "caja negra", ya que es imposible de interpretar. Estos modelos de caja negra se crean directamente a partir de los datos. Ni siquiera los ingenieros o científicos de datos que crean el algoritmo pueden entender o explicar qué ocurre exactamente en su interior o cómo el algoritmo de IA llegó a un resultado concreto.

Comprender cómo un sistema habilitado para la IA ha llegado a un resultado concreto tiene muchas ventajas.  La explicabilidad puede ayudar a los desarrolladores a asegurarse de que el sistema funciona como se esperaba. También puede ser necesaria para cumplir las normas o puede ser importante para permitir que los afectados por una decisión impugnen o cambien ese resultado.¹

Cómo crear IA responsable a escala

Por qué es importante la IA explicable

Es crucial que una organización tenga una comprensión completa de los procesos de toma de decisiones de la IA, con el monitoreo de modelos y la responsabilidad de la IA, y que no confíe ciegamente en ellos. La IA explicable puede ayudar a los humanos a comprender y explicar los algoritmos de aprendizaje automático (ML), el aprendizaje profundo y las redes neuronales.

A menudo se piensa que los modelos de ML son cajas negras imposibles de interpretar². Las redes neuronales utilizadas en el aprendizaje profundo son algunas de las más difíciles de entender para un humano. El sesgo, que a menudo se basa en la raza, el sexo, la edad o la ubicación, ha sido un riesgo de larga data en el entrenamiento de modelos de IA. Además, el rendimiento de los modelos de IA puede desviarse o degradarse porque los datos de producción difieren de los datos del entrenamiento. Esto hace que sea crucial para una empresa monitorear y gestionar de manera continua los modelos para promover la explicabilidad de la IA, al tiempo que se mide el impacto empresarial del uso de ese tipo de algoritmos. La IA explicable también ayuda a promover la confianza del usuario final, la auditabilidad de los modelos y el uso productivo de la IA. También mitiga los riesgos de cumplimiento normativo, legales, de seguridad y de reputación de la IA de producción.

La IA explicable es uno de los requisitos clave para implementar una IA responsable, una metodología para la implementación a gran escala de métodos de IA en organizaciones reales con imparcialidad, explicabilidad de los modelos y responsabilidad³.Para ayudar a adoptar la IA de forma responsable, las organizaciones necesitan integrar principios éticos en las aplicaciones y procesos de IA mediante la creación de sistemas de IA basados en la confianza y la transparencia.

Más información sobre la ética de la IA
Cómo funciona la IA explicable

Con la IA explicable (así como con el aprendizaje automático interpretable), las organizaciones pueden obtener acceso a la toma de decisiones subyacente de la tecnología de IA y están facultadas para realizar ajustes. La IA explicable puede mejorar la experiencia del usuario de un producto o servicio ayudándole a confiar en que la IA está tomando buenas decisiones. ¿Cuándo dan los sistemas de IA suficiente confianza en la decisión como para fiarse de ella, y cómo puede el sistema de IA corregir los errores que surjan?⁴.

A medida que la IA se vuelve más avanzada, sigue siendo necesario comprender y controlar los procesos de ML para garantizar que los resultados de los modelos de IA sean precisos. Veamos la diferencia entre IA y XAI, los métodos y técnicas utilizados para convertir la IA en XAI y la diferencia entre interpretar y explicar los procesos de IA.

Comparación entre IA y XAI
¿Cuál es exactamente la diferencia entre la IA "normal" y la IA explicable? La XAI implementa técnicas y métodos específicos para garantizar que cada decisión tomada durante el proceso de ML pueda rastrearse y explicarse. La IA, por otro lado, a menudo llega a un resultado mediante la utilización de un algoritmo de ML, pero los arquitectos de los sistemas de IA no entienden completamente cómo el algoritmo llegó a ese resultado.Esto dificulta la comprobación de la exactitud y conduce a la pérdida de control, responsabilidad y auditabilidad.

Técnicas de IA explicables
La configuración de las técnicas de XAI consta de tres métodos principales. La precisión de la predicción y la trazabilidad abordan los requisitos tecnológicos, mientras que la comprensión de las decisiones aborda las necesidades humanas. La IA explicable (especialmente el aprendizaje automático explicable) será esencial para que los futuros combatientes comprendan, confíen de manera adecuada y gestionen con eficacia una generación emergente de asociados de máquinas artificialmente inteligentes.⁵

Precisión predictiva
La precisión es un componente clave para determinar el éxito del uso de la IA en las operaciones cotidianas. Mediante la ejecución de simulaciones y la comparación de los resultados de XAI con los resultados del conjunto de datos de entrenamiento, se puede determinar la precisión de la predicción. La técnica más utilizada para ello son las explicaciones agnósticas de modelos interpretables locales (LIME), que explican la predicción de los clasificadores por el algoritmo de ML.

Trazabilidad
La trazabilidad es otra técnica clave para lograr la XAI. Se logra, por ejemplo, al limitar la forma en que pueden tomarse las decisiones y estableciendo un alcance más estrecho para las reglas y características del ML. Un ejemplo de técnica de trazabilidad para XAI es DeepLIFT (Deep Learning Important FeaTures), que compara la activación de cada neurona con su neurona de referencia y muestra un vínculo trazable entre cada neurona activada e incluso muestra dependencias entre ellas.

Comprensión de las decisiones
Este es el factor humano. Muchas personas desconfían de la IA, pero para trabajar con ella de forma eficaz, tienen que aprender a confiar en ella. Esto se consigue educando al equipo que trabaja con la IA para que pueda entender cómo y por qué la IA toma decisiones.

Explicabilidad frente a interpretabilidad en la IA

La interpretabilidad es el grado en que un observador puede entender la causa de una decisión. Es la tasa de éxito que los humanos pueden predecir para el resultado de lo producido por la IA, mientras que la explicabilidad va un paso más allá y examina cómo la IA llegó al resultado.

¿Qué relación existe entre la IA explicable y la IA responsable?

La IA explicable y la IA responsable tienen objetivos similares, pero enfoques diferentes. He aquí las principales diferencias entre la IA explicable y la IA responsable:

  • La IA explicable examina los resultados de la IA después de que se hayan computado.
  • La IA responsable examina la IA durante las fases de planificación para que el algoritmo de IA sea responsable antes de que se computen los resultados.
  • La IA explicable y la IA responsable pueden trabajar juntas para hacer una IA mejor.
Evaluación continua del modelo

Con la IA explicable, una empresa puede solucionar problemas y mejorar el rendimiento de los modelos al tiempo que ayuda a las partes interesadas a comprender los comportamientos de los modelos de IA. Investigar los comportamientos de los modelos mediante el rastreo de la información estratégica sobre el estado de la implementación, la equidad, la calidad y las desviaciones es esencial para escalar la IA.

La evaluación continua de los modelos permite a una empresa comparar las predicciones de los modelos, cuantificar su riesgo y optimizar su rendimiento. Mostrar los valores positivos y negativos en los comportamientos de los modelos con los datos utilizados para generar explicaciones agiliza las evaluaciones de los modelos.Una plataforma de datos e IA puede generar atribuciones de características para las predicciones de los modelos y capacitar a los equipos para investigar visualmente el comportamiento de los modelos con gráficos interactivos y documentos exportables.

Beneficios de la IA explicable
Ponga en marcha la IA con confianza y seguridad

Cree confianza en la IA de producción. Lleve sus modelos de IA a producción rápidamente. Garantice la interpretabilidad y explicabilidad de los modelos de IA. Simplifique el proceso de evaluación de modelos al tiempo que aumenta la transparencia y la trazabilidad de los mismos.

Acelere la obtención de resultados de IA

Monitoree y gestione de manera sistemática los modelos para optimizar los resultados empresariales. Evalúe y mejore continuamente el rendimiento de los modelos. Ajuste los esfuerzos de desarrollo de modelos basándose en la evaluación continua.

Mitigue el riesgo y el costo de la gestión de modelos.

Mantenga sus modelos de IA explicables y transparentes. Gestione los requisitos normativos, de conformidad, de riesgo y otros.Minimice la sobrecarga de la inspección manual y los costosos errores. Mitigue el riesgo de sesgos involuntarios.

Cinco consideraciones para una IA explicable

Para generar resultados deseables con la IA explicable, tenga en cuenta lo siguiente.

Imparcialidad y depuración: gestione y monitoree la imparcialidad. Analice la implementación en busca de posibles sesgos. 

Mitigación de las desviaciones del modelo: analice su modelo y haga recomendaciones basadas en el resultado más lógico. Alerte cuando los modelos se desvíen de los resultados previstos.

Gestión de riesgos de modelos: cuantifique y mitigue el riesgo de los modelos. Reciba alertas cuando el rendimiento de un modelo sea inadecuado. Comprenda lo ocurrido cuando persistan las desviaciones.

Automatización del ciclo de vida: cree, ejecute y gestione modelos como parte de los servicios integrados de datos e IA. Unifique las herramientas y los procesos en una plataforma para monitorear los modelos y compartir los resultados. Explique las dependencias de los modelos de aprendizaje automático.

Preparada para múltiples nubes: implemente proyectos de IA en nubes híbridas, incluyendo nubes públicas, nubes privadas y locales. Fomente la confianza con la IA explicable.

Casos de uso de la IA explicable
  • Atención médica: acelera el diagnóstico, el análisis de imágenes, la optimización de recursos y el diagnóstico médico. Mejora la transparencia y la trazabilidad en la toma de decisiones para la atención al paciente. Optimiza el proceso de aprobación farmacéutica con IA explicable.
  • Servicios financieros: mejora las experiencias de los clientes con un proceso transparente de aprobación de préstamos y créditos. Acelera las evaluaciones del riesgo crediticio, de gestión de patrimonios y de delitos financieros. Acelera la resolución de posibles reclamaciones y problemas. Aumenta la confianza en los precios, las recomendaciones de productos y los servicios de inversión.
  • Justicia penal: optimiza los procesos de predicción y evaluación de riesgos. Acelera las resoluciones utilizando IA explicable en análisis de ADN, análisis de la población reclusa y previsión de la delincuencia. Detecta posibles sesgos en los datos de entrenamiento y en los algoritmos.
Soluciones relacionadas 
IBM Cloud Pak® para datos

Modernización para automatizar el ciclo de vida de la IA. Añade gobernanza y seguridad a los datos y a los servicios de IA casi en cualquier lugar.

Más información
IBM Watson® Studio

Cree y escale IA con confianza y transparencia.Cree, ejecute y gestione modelos de IA con un monitoreo constante para una IA explicable.

Más información
IBM Watson Knowledge Catalog

Gestione los datos y los modelos de IA con un catálogo de datos de extremo a extremo respaldado por una gestión activa de metadatos y políticas.

Más información
Recursos La urgencia de gestionar la IA

Conozca un enfoque de tres pasos para gestionar la IA. Descubra información estratégica sobre cómo crear sistemas de gobernanza capaces de monitorear la IA ética.

Preparar los modelos para el monitoreo

Aprenda a configurar y permitir el monitoreo de modelos. Utilice un modelo de muestra de riesgo crediticio para seleccionar el despliegue y establecer el tipo de datos para el registro de la carga útil.

Conozca el valor de la IA explicable

Forrester Consulting examina el retorno de la inversión previsto para las empresas que implementen IA explicable y el monitoreo de modelos.

Escalamiento de IA con confianza y transparencia

Lufthansa mejora la experiencia del cliente y la eficiencia de la aerolínea con la automatización del ciclo de vida de la IA y la mitigación de desviaciones y sesgos.

Dé el siguiente paso

La plataforma IBM Cloud Pak for Data proporciona servicios de datos e IA en un entorno unificado para que su empresa pueda evaluar el impacto y las relaciones de los datos y los modelos para mejorar la explicabilidad de la IA. También le ayuda a obtener información estratégica sobre el despliegue, la equidad, la calidad y el riesgo de los modelos. La solución ayuda a explicar las transacciones de IA, los modelos categóricos, los modelos de imagen y los modelos de texto no estructurado con herramientas como las explicaciones contrastivas y las explicaciones agnósticas de modelos interpretables locales (LIME).

Pruebe IBM Cloud Pak for Data as a Service Aprenda a explicar las transacciones
Notas de pie de página

¹ ”Explainable AI,” (IA explicable) The Royal Society, 28 de noviembre de 2019. (enlace externo a ibm.com)

² ”Explainable Artificial Intelligence,” (Inteligencia artificial explicable) Jaime Zornoza, 15 de abril de 2020. (enlace externo a ibm.com)

³ ”Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI,” (Inteligencia Artificial Explicable (XAI): Conceptos, taxonomías, oportunidades y retos hacia una IA responsable) ScienceDirect, junio de 2020. (enlace externo a ibm.com)

⁴ ”Understanding Explainable AI,” (Comprender la IA explicable) Ron Schmelzer, colaborador de Forbes, 23 de julio de 2019. (enlace externo a ibm.com)

⁵ ”Explainable Artificial Intelligence (XAI),” (Inteligencia Artificial Explicable) Dr. Matt Turek, Agencia de Proyectos de Investigación Avanzados de Defensa de EE. UU. (DARPA). (enlace externo a ibm.com)