Lea cómo la IA explicable beneficia a la IA de producción

¿Qué es la IA explicable?

La inteligencia artificial explicable (XAI) es un conjunto de procesos y métodos que permite a los usuarios humanos comprender y confiar en los resultados y la salida generados por algoritmos de machine learning. La IA explicable se utiliza para describir un modelo de IA, su impacto esperado y los posibles sesgos. Ayuda a caracterizar la precisión, la imparcialidad, la transparencia y los resultados de los modelos en la toma de decisiones basada en IA. La IA explicable resulta crucial para una organización para generar confianza a la hora de aplicar modelos de IA a producción. La explicabilidad de la IA también ayuda a una organización a adoptar un enfoque responsable al desarrollo de la IA.

A medida que la IA se vuelve más avanzada, más difícil resulta para las personas comprender y volver a rastrear cómo el algoritmo ha llegado a un resultado. Todo el proceso de cálculo se convierte en lo que comúnmente se conoce como una "caja negra" que es imposible de interpretar. Estos modelos de caja negra se crean directamente a partir de los datos. Y ni siquiera los ingenieros o científicos de datos que crean el algoritmo pueden comprender o explicar lo que está sucediendo exactamente dentro de ellos o cómo el algoritmo de IA ha llegado a un resultado específico.

Hay muchas ventajas que ayudan a comprender cómo un sistema habilitado para IA llega a una salida específica. La explicabilidad puede ayudar a los desarrolladores a garantizar que el sistema funciona como se espera, puede que sea necesario para cumplir con los estándares normativos o puede ser importante para permitir que los afectados por una decisión puedan impugnar o cambiar el resultado.¹

Un profesional trabajando en un portátil

¿Por qué es importante la IA explicable?

Resulta crucial que una organización comprenda plenamente los procesos de toma de decisiones de la IA con la supervisión de modelos y la rendición de cuentas de la IA, sin confiar en ellos ciegamente. La IA explicable puede ayudar a las personas a comprender y explicar los algoritmos de machine learning (ML), deep learning y las redes neuronales.

Los modelos de ML a menudo se piensan como cajas negras que son imposibles de interpretar.² Las redes neuronales que se utilizan en deep learning son algunas de las más difíciles de entender para una persona. El sesgo, a menudo basado en la raza, el sexo, la edad o la ubicación, ha representado un riesgo permanente en el entrenamiento de modelos de IA. Además, el rendimiento de modelos de IA puede desviarse o degradarse porque los datos de producción difieren de los datos de entrenamiento. Por ello es tan importante que un negocio supervise y gestione los modelos de manera continua para promover la explicabilidad de la IA, además de medir el impacto de negocio del uso de tales algoritmos. La IA explicable también ayuda a promover la confianza entre los usuarios finales, la auditabilidad de los modelos y el uso productivo de la IA. También mitiga los riesgos legales, de cumplimiento, seguridad y reputación de la IA de producción.

La IA explicable es uno de los requisitos clave para implementar la IA responsable, una metodología para la implementación a gran escala de métodos de IA en organizaciones reales con imparcialidad, explicabilidad de modelos y rendición de cuentas.³ Para ayudar a adoptar la IA de manera responsable, las organizaciones deben incluir principios éticos en las aplicaciones y los procesos de IA mediante la creación de sistemas de IA basados en la confianza y la transparencia.

Una persona mirando a otras en una reunión de vídeo con un ordenador portátil

Evaluación continua de modelos

Con IA explicable, un negocio puede resolver problemas y mejorar el rendimiento de los modelos, al tiempo que ayuda a las partes implicadas a comprender los comportamientos de los modelos de IA. Investigar los comportamientos de los modelos a través del seguimiento de los conocimientos del modelo sobre el estado del despliegue, la imparcialidad, la calidad y la desviación es fundamental para escalar la IA. La evaluación continua de los modelos permite a las empresas comparar las predicciones de los modelos, cuantificar su riesgo y optimizar su rendimiento. Visualizar los valores positivos y negativos en comportamientos de modelos con datos utilizados para generar la explicación acelera las evaluaciones de modelos. Una plataforma de datos e IA puede generar atribuciones de características para las predicciones de modelos y capacitar a los equipos para investigar visualmente el comportamiento de modelos con gráficos interactivos y documentos exportables.

Un profesional trabajando en un portátil

El valor de la IA explicable

Estudio de Forrester sobre la IA explicable y la supervisión de modelos en IBM Cloud Pak for Data

Ventajas de la IA explicable

Operacionalice la IA con confianza

Genere confianza en la IA de producción. Lleve rápidamente sus modelos de IA a producción. Garantice la interpretabilidad y la explicabilidad de los modelos de IA. Simplifique el proceso de evaluación de modelos, además de incrementar la transparencia y la rastreabilidad de los modelos.

Acelere la generación de resultados de IA

Supervise y gestione modelos sistemáticamente para optimizar los resultados del negocio. Evalúe de forma continua y mejore el rendimiento de los modelos. Ajuste los esfuerzos de desarrollo de modelos basándose en la evaluación continua.

Mitigue riesgos y costes del gobierno de modelos

Mantenga sus modelos de IA explicables y transparentes. Gestione los requisitos normativos, de cumplimiento y de riesgos, entre otros. Minimice la sobrecarga de las inspecciones manuales y los errores costosos. Mitigue el riesgo de sesgo no intencionado.

El enfoque de IBM a la IA explicable

IBM lleva más de 100 años trabajando continuamente por una innovación que aporte beneficios a todos y no solo a unos pocos. Esta filosofía también se aplica a la IA: nuestro objetivo es crear y ofrecer una tecnología fiable, que pueda reforzar, no sustituir, la toma de decisiones humanas.

Si bien la IA conlleva la promesa de ofrecer conocimientos y patrones de valor a través de una multitud de aplicaciones, la adopción amplia de sistemas de IA dependerá en gran medida de la capacidad de las personas de confiar en los resultados de la IA. La confianza humana en la tecnología se basa en nuestra comprensión de cómo funciona y nuestra evaluación de su seguridad y fiabilidad. Por ello es tan importante la IA explicable. El enfoque de IBM a la IA explicable se centra en conseguir que la IA sea fiable y justa, para que se pueda explicar, y para ayudar a asegurar que no provoque ningún daño.

En el núcleo de nuestra innovación, IBM Research está desarrollando diversos enfoques en torno a cómo lograr la imparcialidad, la robustez, la explicabilidad, la rendición de cuentas y la alineación del valor, y cómo integrarlos a lo largo de todo el ciclo de vida de una aplicación de IA. Las infraestructuras y los conjuntos de herramientas de la IA explicable de IBM Research se integran en la plataforma IBM Cloud Pak for Data para que las empresas puedan aprovechar nuestra más reciente tecnología de IA de una forma gobernada, segura y escalable.

Una persona mirando el teléfono móvil mientras está de pie frente a una ventana de oficina

Cinco consideraciones para la IA explicable

Cinco consideraciones para la IA explicable

Para obtener los resultados deseados con la IA explicable, tenga en cuenta lo siguiente.

Imparcialidad y eliminación de sesgos: gestione y supervise la imparcialidad. Examine el despliegue por si hubiera sesgos. 

Mitigación de la desviación de modelos: analice el modelo y realice recomendaciones en base al resultado más lógico. Alerte cuando los modelos se desvían de los resultados previstos.

Gestión de riesgos de modelos: cuantifique y mitigue el riesgo de los modelos. Reciba alertas cuando un modelo no se ejecute correctamente. Comprenda qué ha sucedido cuando persisten las desviaciones.

Automatización del ciclo de vida: cree, ejecute y gestione modelos como parte de los servicios integrados de datos e IA. Unifique las herramientas y los procesos en una plataforma para supervisar los modelos y compartir los resultados. Explique las dependencias de los modelos de machine learning.

Preparado para multicloud: despliegue los proyectos de IA en clouds híbridos, incluyendo clouds públicos, clouds privados y en local. Promueva la confianza con la IA explicable.

Primer plano de un edificio acristalado moderno

Mejore la explicabilidad de IA con IBM Cloud Pak for Data

La plataforma IBM Cloud Pak® for Data proporciona datos y servicios de IA en un entorno unificado para que un negocio pueda evaluar el impacto y las relaciones de los datos y los modelos para mejorar la explicabilidad de la IA. También ayuda a un negocio a obtener información sobre los despliegues, la imparcialidad, la calidad y el riesgo. La solución ayuda a explicar las transacciones de IA, los modelos categóricos, los modelos de imágenes y los modelos de texto no estructurado con herramientas como explicaciones que se pueden contrastar y LIME (Local Interpretable Model-Agnostic Explanations). Lograr que la IA sea explicable y transparente mediante la automatización del ciclo de vida de la IA en una arquitectura de información moderna es clave para el éxito de la IA de producción.

Más detalles sobre la IA explicable

¿Cómo funciona la IA explicable?

Con la IA explicable, así como machine learning interpretable, las organizaciones pueden obtener acceso a la toma de decisiones subyacente de la tecnología de IA y son capaces de realizar ajustes. La IA explicable puede mejorar la experiencia del usuario de un producto o servicio ayudando al usuario final a confiar en que la IA está tomando buenas decisiones. ¿Cuándo los sistemas de IA dan suficiente confianza en la decisión para que pueda confiar en ella, y cómo puede el sistema de IA corregir errores que surgen?⁴

A medida que la IA se vuelve más avanzada, es necesario comprender y controlar los procesos de ML para garantizar que los resultados de los modelos de IA sean precisos. Veamos la diferencia entre IA y XAI, los métodos y las técnicas utilizados para convertir la IA en XAI, y la diferencia entre interpretar y explicar los procesos de IA.

Comparación entre IA y XAI

¿Cuál es exactamente la diferencia entre la IA "normal" y la IA explicable? XAI implementa técnicas y métodos específicos para asegurar que cada decisión tomada durante el proceso de ML se pueda rastrear y explicar. La IA, por otro lado, a menudo llega a un resultado utilizando un algoritmo de ML, pero los arquitectos de los sistemas de IA no comprenden completamente cómo el algoritmo ha llegado a ese resultado. Esto hace que sea difícil comprobar la exactitud y genera la pérdida de control, rendición de cuentas y auditabilidad.

Técnicas de la IA explicable

La configuración de las técnicas de XAI consta de tres métodos principales. La precisión de las predicciones y la rastreabilidad abordan los requisitos tecnológicos, mientras que la comprensión de las decisiones aborda las necesidades humanas. La IA explicable (en especial, machine learning explicable) será esencial si los futuros combatientes tienen que comprender, confiar debidamente y gestionar de forma efectiva una generación emergente de equipos de máquinas artificialmente inteligentes.⁵

Precisión de las predicciones
La precisión es un componente clave para el éxito del uso de la IA en las operaciones diarias. Mediante la ejecución de simulaciones y la comparación de la salida de XAI con los resultados en el conjunto de datos de entrenamiento, se puede determinar la precisión de una predicción. La técnica más popular utilizada para ello es el LIME (Local Interpretable Model-Agnostic Explanations), que explica la predicción de clasificadores por el algoritmo de ML.

Rastreabilidad
La rastreabilidad es otra técnica clave para lograr XAI. Esto se consigue, por ejemplo, limitando la forma en que se pueden tomar decisiones y estableciendo un ámbito más reducido para las normas y características de ML. Un ejemplo de una técnica de rastreabilidad de XAI es DeepLIFT (Deep Learning Important FeaTures), que compara la activación de cada neurona con su neurona de referencia y muestra un enlace rastreable entre cada neurona activada e incluso muestra dependencias entre ellas.

Comprensión de las decisiones
Este es el factor humano. Muchas personas desconfían de la IA, sin embargo, para trabajar con ella de manera eficiente, deben aprender a confiar en ella. Esto se logra formando al equipo que trabaja con la IA para que pueda comprender cómo y por qué la IA toma decisiones.

Explicabilidad frente a interpretabilidad en IA

La interpretación es el grado en que un observador puede comprender la causa de una decisión. Es la tasa de éxito que las personas pueden prever para el resultado de una salida de IA, mientras que la explicabilidad va un paso más allá y mira cómo la IA ha llegado al resultado.

¿Qué relación existe entre la IA explicable y la IA responsable?

La IA explicable y la IA responsable tienen objetivos similares, pero diferentes enfoques. Estas son las principales diferencias entre la IA explicable y responsable:

  • La IA explicable analiza los resultados de la IA después de calcular los resultados.
  • La IA responsable mira a la IA durante las etapas de planificación para hacer responsable al algoritmo de IA antes de que se calculen los resultados.
  • La IA explicable y responsable pueden trabajar juntas para mejorar la IA.

Para obtener más información sobre la IA explicable, regístrese para obtener un ID de IBM e inicie su versión de prueba de IBM Cloud Pak for Data hoy mismo.

Cómo implementar la IA explicable

Utilice estos recursos para obtener más información sobre cómo implementar la IA explicable.

Seminario en línea: Cómo gestionar y supervisar modelos
Aprenda qué puede hacer cuando sus modelos no funcionan.
Vea el webinar (enlace externo a IBM) →

Vía de aprendizaje: Gestionar la IA con confianza
Aprenda a rastrear y medir los resultados de la IA a lo largo de su ciclo de vida, además de adaptar y controlar la IA de acuerdo con las cambiantes condiciones de negocio.
Consulte el tutorial →

Laboratorio práctico: Supervisar modelos de machine learning
Explore los procesos paso a paso para evaluar la imparcialidad, la precisión y la explicabilidad de los modelos. 
Vea el laboratorio →

Casos de uso de la IA explicable

Sanidad

Foto de primer plano de 3 cirujanos operando

Acelere los diagnósticos, el análisis de imágenes, la optimización de recursos y el diagnóstico médico. Mejore la transparencia y la rastreabilidad en la toma de decisiones para la atención al paciente. Agilice el proceso de aprobación farmacéutica con IA explicable.

Servicios financieros

Una persona con una tarjeta de crédito mientras trabaja en un portátil

Mejore las experiencias del cliente con un proceso de aprobación de crédito y préstamo transparente. Agilice las evaluaciones de riesgo de crédito, gestión patrimonial y riesgo de delitos financieros. Acelere la resolución de posibles reclamaciones y problemas. Aumente la confianza en los precios, las recomendaciones de productos y los servicios de inversión.

Justicia penal

Un policía frente a un área marcada con cinta de escena del crimen

Optimice los procesos para la evaluación de riesgos y predicciones. Acelere las resoluciones utilizando IA explicable en análisis de ADN, análisis de población carcelaria y previsión de delitos. Detecte posibles sesgos en los datos y algoritmos de entrenamiento.

Notas a pie de página

¹ "Explainable AI", The Royal Society, 28 de noviembre de 2019 (enlace externo a IBM).
² "Explainable Artificial Intelligence", Jaime Zornoza, 15 de abril de 2020 (enlace externo a IBM).
³ "Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI", ScienceDirect, junio de 2020 (enlace externo a IBM).
⁴ "Understanding Explainable AI", Ron Schmelzer, colaborador de Forbes, 23 de julio de 2019 (enlace externo a IBM).
⁵ "Explainable Artificial Intelligence (XAI)", Dr. Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA) (enlace externo a IBM).