¿Qué es la IA responsable? 

Dos hombres trabajan con computadoras de escritorio en una oficina de coworking

Autores

Cole Stryker

Staff Editor, AI Models

IBM Think

¿Qué es la IA responsable?

La inteligencia artificial (IA) responsable es un conjunto de principios que ayudan a guiar el diseño, desarrollo, despliegue y uso de la IA, generando confianza en las soluciones de IA que tienen el potencial de empoderar a las organizaciones y a sus partes interesadas. La IA responsable implica la consideración de un impacto social más amplio de los sistemas de IA y las medidas necesarias para alinear estas tecnologías con los valores de las partes interesadas, las normas legales y los principios éticos. La IA responsable tiene como objetivo integrar dichos principios éticos en las aplicaciones y flujos de trabajo de IA para mitigar los riesgos y los resultados negativos asociados con el uso de la IA, al tiempo que maximiza los resultados positivos.

Este artículo tiene como objetivo proporcionar una visión general de la IA responsable. Para Aprenda más sobre el punto de vista específico de IBM, consulte nuestra página de ética de IA.

La adopción generalizada dmachine learning en la década de 2010, impulsada por los avances en big data y potencia informática, trajo nuevos desafíos éticos, como el sesgo, la transparencia y el uso de datos personales. La ética de la IA surgió como una disciplina distinta durante este periodo, ya que las compañías tecnológicas y las instituciones de investigación en IA trataron de gestionar de forma proactiva sus esfuerzos de IA de forma responsable.

Según la investigación de Accenture: “Solo el 35 % de los consumidores globales confía en cómo las organizaciones implementan la tecnología de IA. Y el 77 % piensa que las organizaciones deben rendir cuentas por el mal uso de la IA”.1 En este contexto, se alienta a los desarrolladores de IA a guiar sus esfuerzos con un marco ético de IA fuerte y coherente.

Esto se aplica particularmente a los nuevos tipos de IA generativa que ahora están siendo adoptadas rápidamente por las compañías. Los principios de IA responsable pueden ayudar a los adoptantes a aprovechar todo el potencial de estas herramientas, al tiempo que minimizan los resultados no deseados.

La IA debe ser confiable y, para que los stakeholders confíen en ella, debe ser transparente. Las empresas tecnológicas deben dejar claro quién entrena a sus sistemas de IA, qué datos se utilizaron en ese entrenamiento y, lo que es más importante, qué se incluyó en las recomendaciones de sus algoritmos. Si vamos a utilizar la IA para ayudar a tomar decisiones importantes, debe ser explicable.

Diseño 3D de pelotas rodando en una pista

Las últimas novedades e insights sobre IA

Descubra insights y noticias de expertos sobre IA, la nube y mucho más en el boletín semanal Think. 

Los pilares de la confianza

IBM desarrolló un marco para aclarar estos principios. Veamos las propiedades que componen los "Pilares de la confianza". En conjunto, estas propiedades responden a la pregunta: "¿Qué se necesita para confiar en el resultado de un modelo de IA?" La IA confiable es un imperativo estratégico y ético en IBM, pero cualquier compañía puede emplear estos pilares para guiar sus esfuerzos en IA.

Justificabilidad

Los modelos de machine learning, como las neural networks profundas, están logrando una precisión impresionante en diversas tareas. Pero la explicabilidad y la interpretabilidad son cada vez más esenciales para el desarrollo de una IA confiable. Tres principios conforman el enfoque de IBM para la explicabilidad.

Precisión de la predicción

La precisión es un componente clave del éxito del uso de la IA en el funcionamiento cotidiano. Al ejecutar simulaciones y comparar los resultados del AI con los resultados del conjunto de datos de entrenamiento, se puede determinar la precisión de la predicción. La técnica más empleada para ello son las explicaciones locales interpretables del modelo (Local Interpretable Model-Agnostic Explanations, LIME), que explican la predicción de los clasificadores por el algoritmo de machine learning.

Rastreabilidad

La trazabilidad es una propiedad de la IA que indica si permite a los usuarios rastrear sus predicciones y procesos. Implica la documentación de los datos y cómo los procesan los modelos. La trazabilidad es otra técnica clave para lograr la explicabilidad y se logra, por ejemplo, limitando la forma en que se pueden tomar decisiones y estableciendo un alcance más estrecho para las reglas y características de machine learning.

Comprensión de la toma de decisiones 

Este es el factor humano. Los profesionales deben ser capaces de comprender cómo y por qué la IA obtiene conclusiones. Esto se logra a través de la educación continua.

Imparcialidad

Los modelos de machine learning se emplean cada vez más para fundamentar la toma de decisiones de alto riesgo relacionadas con las personas. Aunque machine learning, por su propia naturaleza, es una forma de discriminación estadística, la discriminación se vuelve objetable cuando coloca a los grupos privilegiados en un beneficio sistemático y a ciertos grupos no privilegiados en una desventaja sistemática, lo que puede causar daños diversos. Los sesgos en los datos de entrenamiento, debidos a prejuicios en las etiquetas o a una ejemplificación insuficiente o excesiva, dan lugar a modelos con sesgos no deseados.

  • Datos diversos y representativos

Cerciorar de que los datos de entrenamiento empleados para crear modelos de IA sean diversos y representativos de la población a la que deben servir. Incluya entradas de datos de varios grupos demográficos para evitar la subrepresentación o el sesgo. Verifique y evalúe periódicamente los datos de entrenamiento para detectar sesgos. Emplee herramientas y métodos para identificar y corregir sesgos en el conjunto de datos antes de capacitar el modelo.

  • Algoritmos conscientes del sesgo

Incorpore métricas de equidad en el proceso de desarrollo para evaluar cómo los diferentes subgrupos se ven afectados por las predicciones del modelo. Monitorear y minimizar las disparidades en los resultados entre varios grupos demográficos. Aplique restricciones en el algoritmo para cerciorar de que el modelo se adhiere a criterios de equidad predefinidos durante el entrenamiento y la implementación.

  • Técnicas de mitigación de sesgos

Aplique técnicas como el remuestreo, la reponderación y el entrenamiento contradictorio para mitigar los sesgos en las predicciones del modelo.

  • Diversos equipos de desarrollo

Reúna equipos interdisciplinarios y diversos involucrados en el desarrollo de IA. Los equipos diversos pueden aportar diferentes perspectivas, ayudando a identificar y rectificar los sesgos que pueden pasar por alto los equipos homogéneos.

  • Juntas de revisión ética de la IA

Establecer juntas o comités de revisión para evaluar los posibles sesgos e implicaciones éticas de los proyectos de IA. Estas juntas directivas pueden proporcionar orientación sobre consideraciones éticas a lo largo del ciclo de vida del desarrollo.

Robustez

Una IA robusta gestiona eficazmente condiciones excepcionales, como anomalías en la entrada o ataques maliciosos, sin causar daños involuntarios. También está diseñado para resistir interferencias intencionales y no intencionales al proteger contra vulnerabilidades expuestas. Nuestra mayor dependencia de estos modelos y el valor que representan como acumulación de conocimiento confidencial y exclusivo corren un riesgo cada vez mayor de ser atacados. Estos modelos plantean riesgos de seguridad únicos que deben tener y mitigar.

Transparencia

Los usuarios deben poder ver cómo funciona el servicio, evaluar su funcionalidad y comprender sus puntos fuertes y sus limitaciones. Una mayor transparencia proporciona información a los consumidores de IA para que comprendan mejor cómo se creó el modelo o servicio de IA. Esto ayuda a un usuario del modelo a determinar si es apropiado para un caso de uso específico o a evaluar cómo una IA llegó a conclusiones inexactas o sesgadas.

Privacidad

Muchos marcos regulatorios, incluido el RGPD, exigen que las organizaciones cumplan con ciertos principios de privacidad al procesar información personal. Un tercero malicioso con acceso a un modelo de ML capacitado, incluso sin acceso a los datos de entrenamiento en sí, puede revelar información personal confidencial sobre las personas cuyos datos se emplearon para capacitar el modelo. Es crucial poder proteger los modelos de IA que pueden contener información personal y controlar qué datos entran en el modelo en primer lugar.

Implementar prácticas de IA responsable

La implementación de prácticas de IA responsable a nivel empresarial implica un enfoque holístico de extremo a extremo que aborde varias etapas del desarrollo y el despliegue de la IA.

Definir los principios de la IA responsable

Desarrolle un conjunto de principios de IA responsable que se alineen con los valores y objetivos de la compañía. Considere los aspectos clave descritos anteriormente en los “Pilares de la confianza”. Dichos principios pueden ser desarrollados y mantenidos por un equipo dedicado de ética de IA multifuncional con representación de diversos departamentos, incluidos especialistas en IA, especialistas en ética, expertos legales y líderes empresariales.

Educar y crear conciencia

Llevar a cabo programas de capacitación para educar a los empleados, partes interesadas y responsables de la toma de decisiones sobre prácticas responsables de IA. Esto incluye la comprensión de los posibles sesgos, las consideraciones éticas y la importancia de incorporar una IA responsable en las operaciones empresariales.

Integrar la ética en todo el ciclo de vida del desarrollo de la IA

Integre prácticas de IA responsables en todo el proceso de desarrollo de IA, desde la recopilación de datos y el entrenamiento de modelos hasta el despliegue y el monitoreo continuo. Emplee técnicas para abordar y mitigar los sesgos en los sistemas de IA. Evalúe periódicamente la equidad de los modelos, especialmente en lo que respecta a atributos sensibles como la raza, el género o el nivel socioeconómico. Priorice la transparencia haciendo que los sistemas de IA sean explicables. Proporcione documentación clara sobre fuentes de datos, algoritmos y procesos de decisión. Los usuarios y las partes interesadas deben poder comprender cómo los sistemas de IA toman decisiones.

Proteja la privacidad del usuario

Establecer prácticas y salvaguardas estables de gobernanza de datos e IA para proteger la privacidad y los datos confidenciales del usuario final. Comunicar claramente las políticas de uso de datos, obtener el consentimiento informado y cumplir con las regulaciones de protección de datos.

Facilitar la supervisión humana

Integrar mecanismos de supervisión humana en los procesos críticos de toma de decisiones. Definir líneas claras de rendición de cuentas para garantizar que las partes responsables están identificadas y pueden ser consideradas responsables de los resultados de los sistemas de IA. Establecer una supervisión continua de los sistemas de IA para identificar y abordar las preocupaciones éticas, los sesgos o los problemas que puedan surgir con el tiempo. Auditar periódicamente los modelos de IA para evaluar el cumplimiento de las directrices éticas.

Fomentar la colaboración externa

Fomentar la colaboración con organizaciones externas, instituciones de investigación y grupos de código abierto que trabajan en IA responsable. Mantener informado sobre los últimos avances en prácticas e iniciativas de IA responsable y contribuya a los esfuerzos de toda la industria.

AI Academy

Confianza, transparencia y gobernanza en IA

Es probable que la confianza en la IA sea el tema más importante en el campo de la IA. También es, comprensiblemente, un tema abrumador. Desentrañaremos cuestiones, como las alucinaciones, el sesgo y el riesgo, y compartiremos medidas para adoptar la IA de manera ética, responsable y justa.

Soluciones relacionadas
IBM watsonx.governance

Gobierne modelos de IA generativa desde cualquier lugar y despliéguelos en la nube u on-premises con IBM watsonx.governance.

Descubra watsonx.governance
Soluciones de gobernanza de la IA

Vea cómo la gobernanza de la IA puede ayudar a aumentar la confianza de sus empleados en la IA, acelerar la adopción y la innovación y mejorar la confianza de los clientes.

Descubra las soluciones de gobernanza de la IA
Servicios de consultoría sobre gobernanza de la IA

Prepárese para la Ley de IA de la UE y establezca un enfoque de gobernanza para la IA responsable con la ayuda de IBM® Consulting.

Descubra los servicios de gobernanza de la IA
Dé el siguiente paso

Dirija, gestione y monitoree su IA con una única cartera para acelerar una IA responsable, transparente y explicable.

Explore watsonx.governance Agende una demostración en vivo
Notas de pie de página

1 Technology Vision 2022, Accenture, 2022.