La inteligencia artificial (IA) responsable es un conjunto de principios que ayudan a guiar el diseño, desarrollo, despliegue y uso de la IA, generando confianza en las soluciones de IA que tienen el potencial de empoderar a las organizaciones y a sus partes interesadas. La IA responsable implica la consideración de un impacto social más amplio de los sistemas de IA y las medidas necesarias para alinear estas tecnologías con los valores de las partes interesadas, las normas legales y los principios éticos. La IA responsable tiene como objetivo integrar dichos principios éticos en las aplicaciones y flujos de trabajo de IA para mitigar los riesgos y los resultados negativos asociados con el uso de la IA, al tiempo que maximiza los resultados positivos.
Este artículo tiene como objetivo proporcionar una visión general de la IA responsable. Para Aprenda más sobre el punto de vista específico de IBM, consulte nuestra página de ética de IA.
La adopción generalizada dmachine learning en la década de 2010, impulsada por los avances en big data y potencia informática, trajo nuevos desafíos éticos, como el sesgo, la transparencia y el uso de datos personales. La ética de la IA surgió como una disciplina distinta durante este periodo, ya que las compañías tecnológicas y las instituciones de investigación en IA trataron de gestionar de forma proactiva sus esfuerzos de IA de forma responsable.
Según la investigación de Accenture: “Solo el 35 % de los consumidores globales confía en cómo las organizaciones implementan la tecnología de IA. Y el 77 % piensa que las organizaciones deben rendir cuentas por el mal uso de la IA”.1 En este contexto, se alienta a los desarrolladores de IA a guiar sus esfuerzos con un marco ético de IA fuerte y coherente.
Esto se aplica particularmente a los nuevos tipos de IA generativa que ahora están siendo adoptadas rápidamente por las compañías. Los principios de IA responsable pueden ayudar a los adoptantes a aprovechar todo el potencial de estas herramientas, al tiempo que minimizan los resultados no deseados.
La IA debe ser confiable y, para que los stakeholders confíen en ella, debe ser transparente. Las empresas tecnológicas deben dejar claro quién entrena a sus sistemas de IA, qué datos se utilizaron en ese entrenamiento y, lo que es más importante, qué se incluyó en las recomendaciones de sus algoritmos. Si vamos a utilizar la IA para ayudar a tomar decisiones importantes, debe ser explicable.
IBM desarrolló un marco para aclarar estos principios. Veamos las propiedades que componen los "Pilares de la confianza". En conjunto, estas propiedades responden a la pregunta: "¿Qué se necesita para confiar en el resultado de un modelo de IA?" La IA confiable es un imperativo estratégico y ético en IBM, pero cualquier compañía puede emplear estos pilares para guiar sus esfuerzos en IA.
Los modelos de machine learning, como las neural networks profundas, están logrando una precisión impresionante en diversas tareas. Pero la explicabilidad y la interpretabilidad son cada vez más esenciales para el desarrollo de una IA confiable. Tres principios conforman el enfoque de IBM para la explicabilidad.
La precisión es un componente clave del éxito del uso de la IA en el funcionamiento cotidiano. Al ejecutar simulaciones y comparar los resultados del AI con los resultados del conjunto de datos de entrenamiento, se puede determinar la precisión de la predicción. La técnica más empleada para ello son las explicaciones locales interpretables del modelo (Local Interpretable Model-Agnostic Explanations, LIME), que explican la predicción de los clasificadores por el algoritmo de machine learning.
La trazabilidad es una propiedad de la IA que indica si permite a los usuarios rastrear sus predicciones y procesos. Implica la documentación de los datos y cómo los procesan los modelos. La trazabilidad es otra técnica clave para lograr la explicabilidad y se logra, por ejemplo, limitando la forma en que se pueden tomar decisiones y estableciendo un alcance más estrecho para las reglas y características de machine learning.
Este es el factor humano. Los profesionales deben ser capaces de comprender cómo y por qué la IA obtiene conclusiones. Esto se logra a través de la educación continua.
Los modelos de machine learning se emplean cada vez más para fundamentar la toma de decisiones de alto riesgo relacionadas con las personas. Aunque machine learning, por su propia naturaleza, es una forma de discriminación estadística, la discriminación se vuelve objetable cuando coloca a los grupos privilegiados en un beneficio sistemático y a ciertos grupos no privilegiados en una desventaja sistemática, lo que puede causar daños diversos. Los sesgos en los datos de entrenamiento, debidos a prejuicios en las etiquetas o a una ejemplificación insuficiente o excesiva, dan lugar a modelos con sesgos no deseados.
Datos diversos y representativos
Cerciorar de que los datos de entrenamiento empleados para crear modelos de IA sean diversos y representativos de la población a la que deben servir. Incluya entradas de datos de varios grupos demográficos para evitar la subrepresentación o el sesgo. Verifique y evalúe periódicamente los datos de entrenamiento para detectar sesgos. Emplee herramientas y métodos para identificar y corregir sesgos en el conjunto de datos antes de capacitar el modelo.
Algoritmos conscientes del sesgo
Incorpore métricas de equidad en el proceso de desarrollo para evaluar cómo los diferentes subgrupos se ven afectados por las predicciones del modelo. Monitorear y minimizar las disparidades en los resultados entre varios grupos demográficos. Aplique restricciones en el algoritmo para cerciorar de que el modelo se adhiere a criterios de equidad predefinidos durante el entrenamiento y la implementación.
Técnicas de mitigación de sesgos
Aplique técnicas como el remuestreo, la reponderación y el entrenamiento contradictorio para mitigar los sesgos en las predicciones del modelo.
Diversos equipos de desarrollo
Reúna equipos interdisciplinarios y diversos involucrados en el desarrollo de IA. Los equipos diversos pueden aportar diferentes perspectivas, ayudando a identificar y rectificar los sesgos que pueden pasar por alto los equipos homogéneos.
Juntas de revisión ética de la IA
Establecer juntas o comités de revisión para evaluar los posibles sesgos e implicaciones éticas de los proyectos de IA. Estas juntas directivas pueden proporcionar orientación sobre consideraciones éticas a lo largo del ciclo de vida del desarrollo.
Una IA robusta gestiona eficazmente condiciones excepcionales, como anomalías en la entrada o ataques maliciosos, sin causar daños involuntarios. También está diseñado para resistir interferencias intencionales y no intencionales al proteger contra vulnerabilidades expuestas. Nuestra mayor dependencia de estos modelos y el valor que representan como acumulación de conocimiento confidencial y exclusivo corren un riesgo cada vez mayor de ser atacados. Estos modelos plantean riesgos de seguridad únicos que deben tener y mitigar.
Los usuarios deben poder ver cómo funciona el servicio, evaluar su funcionalidad y comprender sus puntos fuertes y sus limitaciones. Una mayor transparencia proporciona información a los consumidores de IA para que comprendan mejor cómo se creó el modelo o servicio de IA. Esto ayuda a un usuario del modelo a determinar si es apropiado para un caso de uso específico o a evaluar cómo una IA llegó a conclusiones inexactas o sesgadas.
Muchos marcos regulatorios, incluido el RGPD, exigen que las organizaciones cumplan con ciertos principios de privacidad al procesar información personal. Un tercero malicioso con acceso a un modelo de ML capacitado, incluso sin acceso a los datos de entrenamiento en sí, puede revelar información personal confidencial sobre las personas cuyos datos se emplearon para capacitar el modelo. Es crucial poder proteger los modelos de IA que pueden contener información personal y controlar qué datos entran en el modelo en primer lugar.
La implementación de prácticas de IA responsable a nivel empresarial implica un enfoque holístico de extremo a extremo que aborde varias etapas del desarrollo y el despliegue de la IA.
Desarrolle un conjunto de principios de IA responsable que se alineen con los valores y objetivos de la compañía. Considere los aspectos clave descritos anteriormente en los “Pilares de la confianza”. Dichos principios pueden ser desarrollados y mantenidos por un equipo dedicado de ética de IA multifuncional con representación de diversos departamentos, incluidos especialistas en IA, especialistas en ética, expertos legales y líderes empresariales.
Llevar a cabo programas de capacitación para educar a los empleados, partes interesadas y responsables de la toma de decisiones sobre prácticas responsables de IA. Esto incluye la comprensión de los posibles sesgos, las consideraciones éticas y la importancia de incorporar una IA responsable en las operaciones empresariales.
Integre prácticas de IA responsables en todo el proceso de desarrollo de IA, desde la recopilación de datos y el entrenamiento de modelos hasta el despliegue y el monitoreo continuo. Emplee técnicas para abordar y mitigar los sesgos en los sistemas de IA. Evalúe periódicamente la equidad de los modelos, especialmente en lo que respecta a atributos sensibles como la raza, el género o el nivel socioeconómico. Priorice la transparencia haciendo que los sistemas de IA sean explicables. Proporcione documentación clara sobre fuentes de datos, algoritmos y procesos de decisión. Los usuarios y las partes interesadas deben poder comprender cómo los sistemas de IA toman decisiones.
Establecer prácticas y salvaguardas estables de gobernanza de datos e IA para proteger la privacidad y los datos confidenciales del usuario final. Comunicar claramente las políticas de uso de datos, obtener el consentimiento informado y cumplir con las regulaciones de protección de datos.
Integrar mecanismos de supervisión humana en los procesos críticos de toma de decisiones. Definir líneas claras de rendición de cuentas para garantizar que las partes responsables están identificadas y pueden ser consideradas responsables de los resultados de los sistemas de IA. Establecer una supervisión continua de los sistemas de IA para identificar y abordar las preocupaciones éticas, los sesgos o los problemas que puedan surgir con el tiempo. Auditar periódicamente los modelos de IA para evaluar el cumplimiento de las directrices éticas.
Fomentar la colaboración con organizaciones externas, instituciones de investigación y grupos de código abierto que trabajan en IA responsable. Mantener informado sobre los últimos avances en prácticas e iniciativas de IA responsable y contribuya a los esfuerzos de toda la industria.
Gobierne modelos de IA generativa desde cualquier lugar y despliéguelos en la nube u on-premises con IBM watsonx.governance.
Vea cómo la gobernanza de la IA puede ayudar a aumentar la confianza de sus empleados en la IA, acelerar la adopción y la innovación y mejorar la confianza de los clientes.
Prepárese para la Ley de IA de la UE y establezca un enfoque de gobernanza para la IA responsable con la ayuda de IBM® Consulting.
1 Technology Vision 2022, Accenture, 2022.