¿Qué es la IA responsable? 

6 de febrero de 2024

Autores

Cole Stryker

Editorial Lead, AI Models

Gather

¿Qué es la IA responsable?

La inteligencia artificial (IA) responsable es un conjunto de principios que ayudan a guiar el diseño, el desarrollo, la implementación y el uso de la IA, creando confianza en las soluciones de IA que tienen el potencial de empoderar a las organizaciones y a sus partes interesadas. La IA responsable implica la consideración de un impacto social más amplio de los sistemas de IA y las medidas necesarias para alinear estas tecnologías con los valores de las partes interesadas, las normas legales y los principios éticos. La IA responsable tiene como objetivo incorporar dichos principios éticos en las aplicaciones y flujos de trabajo de IA para mitigar los riesgos y los resultados negativos asociados con el uso de IA, al tiempo que maximiza los resultados positivos.

Este artículo pretende ofrecer una visión general de la IA responsable. Para obtener más información sobre el punto de vista específico de IBM, consulte nuestra página de ética de la IA.

La adopción generalizada del machine learning en la década de 2010, impulsada por los avances en big data y la potencia computacional, trajo consigo nuevos desafíos éticos, como el sesgo, la transparencia y el uso de datos personales. La ética de la IA surgió como una disciplina distinta durante este período, a medida que las empresas tecnológicas y las instituciones de investigación de la IA trataban de gestionar de forma proactiva sus esfuerzos de IA de manera responsable.

Según la investigación de Accenture: "Solo el 35 % de los consumidores globales confía en cómo las organizaciones implementan la tecnología de IA. Y el 77 % piensa que las organizaciones deben rendir cuentas por su mal uso de la IA".1 En este ambiente, se incentiva a los desarrolladores de IA a dirigir sus esfuerzos con un marco ético de IA sólido y coherente.

Esto se aplica especialmente a los nuevos tipos de IA generativa que las empresas están adoptando rápidamente. Los principios de IA responsable pueden ayudar a quienes los adoptan a aprovechar todo el potencial de estas herramientas, al mismo tiempo que minimizan los resultados no deseados.

La IA debe ser fiable y, para que las partes interesadas confíen en ella, debe ser transparente. Las empresas tecnológicas deben dejar claro quién entrena a sus sistemas de IA, qué datos se utilizaron en ese entrenamiento y, lo que es más importante, qué se incluyó en las recomendaciones de sus algoritmos. Si vamos a utilizar la IA para ayudar a tomar decisiones importantes, debe ser explicable.

Diseño 3D de bolas rodando por un circuito

Las últimas noticias + conocimientos de IA 


Descubra ideas y noticias de expertos sobre IA, nube y mucho más en el boletín semanal Think. 

Los pilares de la confianza

IBM ha desarrollado un marco para dejar claros estos principios. Veamos las propiedades que componen los "Pilares de la confianza". En conjunto, estas propiedades responden a la pregunta: "¿Qué se necesita para confiar en el resultado de un modelo de IA?" La IA de confianza es un imperativo estratégico y ético en IBM, pero cualquier empresa puede utilizar estos pilares para guiar sus esfuerzos en IA.

Explainability

Los modelos de machine learning, como las redes neuronales profundas, están logrando una precisión impresionante en diversas tareas. Pero la explicabilidad y la interpretabilidad son cada vez más esenciales para el desarrollo de una IA fiable. El planteamiento de IBM sobre la explicabilidad se basa en tres principios.

Precisión de la predicción

La precisión es un componente clave del éxito del uso de la IA en las operaciones diarias. La precisión de la predicción puede determinarse realizando simulaciones y comparando los resultados de la IA con los del conjunto de datos de entrenamiento. La técnica más utilizada para ello son las explicaciones locales interpretables del modelo (LIME), que explican la predicción de los clasificadores por el algoritmo de machine learning.

Trazabilidad

La trazabilidad es una propiedad de la IA que significa si permite a los usuarios realizar un seguimiento de sus predicciones y procesos. Implica la documentación de los datos y la forma en que los modelos los procesan. La trazabilidad es otra técnica clave para lograr la explicabilidad, y se consigue, por ejemplo, limitando la forma en que pueden tomarse las decisiones y estableciendo un ámbito más estrecho para las reglas y características del machine learning.

Comprensión de la toma de decisiones 

Este es el factor humano. Los profesionales tienen que poder entender cómo y por qué la IA saca conclusiones. Esto se logra a través de la formación continua.

Imparcialidad

Los modelos de machine learning se utilizan cada vez más para fundamentar la toma de decisiones de alto riesgo relacionadas con las personas. Aunque el machine learning, por su propia naturaleza, es una forma de discriminación estadística, la discriminación se vuelve objetable cuando coloca a grupos privilegiados en ventaja sistemática y a ciertos grupos no privilegiados en desventaja sistemática, lo que puede causar daños variados. Los sesgos en los datos de entrenamiento, debidos a prejuicios en las etiquetas o al submuestreo o al sobremuestreo, producen modelos con sesgos no deseados.

  • Datos diversos y representativos

Asegúrese de que los datos de entrenamiento utilizados para crear modelos de IA sean diversos y representativos de la población a la que deben servir. Incluya entradas de datos de varios grupos demográficos para evitar la infrarrepresentación o el sesgo. Compruebe y evalúe periódicamente los datos de entrenamiento para detectar sesgos. Utilice herramientas y métodos para identificar y corregir sesgos en el conjunto de datos antes de entrenar el modelo.

  • Algoritmos conscientes del sesgo

Incorpore métricas de equidad en el proceso de desarrollo para evaluar cómo afectan a los distintos subgrupos las predicciones del modelo. Monitorice y minimice las disparidades en los resultados entre distintos grupos demográficos. Aplique restricciones en el algoritmo para garantizar que el modelo cumpla con los criterios de equidad predefinidos durante el entrenamiento y la implementación.

  • Técnicas de mitigación de sesgos

Aplique técnicas como el remuestreo, la reponderación y el entrenamiento adversarial para mitigar los sesgos en las predicciones del modelo.

  • Equipos de desarrollo diversos

Reúna equipos interdisciplinarios y diversos involucrados en el desarrollo de la IA. Los equipos diversos pueden aportar diferentes perspectivas, lo que ayuda a identificar y rectificar los sesgos que los equipos homogéneos pueden pasar por alto.

  • Comités de revisión ética de la IA

Cree juntas o comités de revisión para evaluar los posibles sesgos e implicaciones éticas de los proyectos de IA. Estas juntas pueden proporcionar orientación sobre consideraciones éticas a lo largo del ciclo de vida del desarrollo.

Robustez

Una IA sólida maneja con eficacia condiciones excepcionales, como anomalías en la entrada o ataques maliciosos, sin causar daños involuntarios. También está diseñada para resistir las interferencias intencionadas y no intencionadas mediante la protección contra las vulnerabilidades expuestas. Nuestra creciente confianza en estos modelos y el valor que representan como acumulación de conocimientos confidenciales y patentados, corren un riesgo de ataque cada vez mayor. Estos modelos plantean riesgos de seguridad únicos que deben tenerse en cuenta y mitigarse.

Transparencia

Los usuarios deben ser capaces de ver cómo funciona el servicio, evaluar su funcionalidad y comprender sus puntos fuertes y sus limitaciones. El aumento de la transparencia ofrece a los consumidores de IA más información sobre el proceso de creación del modelo o servicio de IA. Esto ayuda al usuario del modelo a determinar si es adecuado para un caso de uso específico o a evaluar cómo una IA ha llegado a conclusiones inexactas o sesgadas.

Privacidad

Muchos marcos regulatorios, incluido el RGPD, exigen que las organizaciones cumplan con ciertos principios de privacidad al procesar información personal. Un tercero malintencionado con acceso a un modelo ML entrenado, incluso sin acceso a los propios datos de entrenamiento, puede revelar información personal sensible sobre las personas cuyos datos se utilizaron para entrenar el modelo. Es crucial poder proteger los modelos de IA que pueden contener información personal y controlar qué datos entran en el modelo en primer lugar.

Implementar prácticas de IA responsable

La implementación de prácticas de IA responsable a nivel empresarial implica un enfoque holístico de extremo a extremo que aborde varias etapas del desarrollo y la implementación de la IA.

Definir los principios de la IA responsable

Desarrolle un conjunto de principios de IA responsable que se alineen con los valores y objetivos de la empresa. Considere los aspectos clave descritos anteriormente en los "Pilares de la confianza". Tales principios pueden ser desarrollados y mantenidos por un equipo interdisciplinar dedicado de ética de la IA con representación de diversos departamentos, incluidos especialistas en IA, especialistas en ética, expertos jurídicos y líderes empresariales.

Educar y concienciar

Llevar a cabo programas de formación para educar a los empleados, las partes interesadas y los responsables de la toma de decisiones sobre las prácticas de la IA responsable. Esto incluye comprender posibles sesgos, consideraciones éticas y la importancia de incorporar una IA responsable en las operaciones comerciales.

Integrar la ética en todo el ciclo de vida del desarrollo de la IA

Incorpore prácticas de IA responsable en toda la canalización de desarrollo de la IA, desde la recopilación de datos y el entrenamiento de modelos hasta la implementación y la monitorización continua. Emplee técnicas para abordar y mitigar los sesgos en los sistemas de IA. Evalúe periódicamente la equidad de los modelos, especialmente en lo que respecta a atributos sensibles como la raza, el género o el estatus socioeconómico. Priorice la transparencia haciendo que los sistemas de IA sean explicables. Proporcione documentación clara sobre fuentes de datos, algoritmos y procesos de decisión. Los usuarios y las partes interesadas deben poder comprender cómo toman decisiones los sistemas de IA.

Proteger la privacidad de los usuarios

Establezca prácticas y salvaguardas sólidas de gobierno de datos e IA para proteger la privacidad y los datos confidenciales de los usuarios finales. Comunique claramente las políticas de uso de datos, obtenga el consentimiento informado y cumpla con la normativa de protección de datos.

Facilitar la supervisión humana

Integre mecanismos de supervisión humana en los procesos cruciales de toma de decisiones. Defina líneas claras de responsabilidad para garantizar que las partes responsables sean identificadas y puedan ser consideradas responsables de los resultados de los sistemas de IA. Lleve a cabo una monitorización continua de los sistemas de IA para identificar y abordar las preocupaciones éticas, los sesgos o los problemas que puedan surgir con el tiempo. Audite periódicamente los modelos de IA para evaluar el cumplimiento de las directrices éticas.

Fomentar la colaboración externa

Fomente la colaboración con organizaciones externas, instituciones de investigación y grupos de código abierto que trabajen en la IA responsable. Manténgase informado sobre los últimos avances en prácticas e iniciativas de IA responsable y contribuya a los esfuerzos de todo el sector.

AI Academy

Confianza, transparencia y gobierno en la IA

La confianza en la IA es sin duda el asunto más importante en este campo. También es comprensible que sea un tema abrumador. Desentrañaremos cuestiones como la alucinación, la parcialidad y el riesgo, y compartiremos los pasos a seguir para adoptar la IA de forma ética, responsable y justa.

Soluciones relacionadas
IBM watsonx.governance™

Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube o en las instalaciones con IBM watsonx.governance.

Descubra watsonx.governance
Servicios de consultoría sobre gobierno de la IA

Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.

Explore los servicios de gobierno de la IA
IBM OpenPages

Simplifique la gestión de riesgos y el cumplimiento normativo con una plataforma GRC unificada.

Explore OpenPages
Dé el siguiente paso

Dirija, gestione y supervise su IA con una única cartera para acelerar una IA responsable, transparente y explicable.

Explore watsonx.governance Solicite una demostración en directo
Notas a pie de página

1 Technology Vision 2022. Accenture. 2022.