La inteligencia artificial (IA) responsable es un conjunto de principios que ayudan a guiar el diseño, el desarrollo, la implementación y el uso de la IA, creando confianza en las soluciones de IA que tienen el potencial de empoderar a las organizaciones y a sus partes interesadas. La IA responsable implica la consideración de un impacto social más amplio de los sistemas de IA y las medidas necesarias para alinear estas tecnologías con los valores de las partes interesadas, las normas legales y los principios éticos. La IA responsable tiene como objetivo incorporar dichos principios éticos en las aplicaciones y flujos de trabajo de IA para mitigar los riesgos y los resultados negativos asociados con el uso de IA, al tiempo que maximiza los resultados positivos.
Este artículo pretende ofrecer una visión general de la IA responsable. Para obtener más información sobre el punto de vista específico de IBM, consulte nuestra página de ética de la IA.
La adopción generalizada del machine learning en la década de 2010, impulsada por los avances en big data y la potencia computacional, trajo consigo nuevos desafíos éticos, como el sesgo, la transparencia y el uso de datos personales. La ética de la IA surgió como una disciplina distinta durante este período, a medida que las empresas tecnológicas y las instituciones de investigación de la IA trataban de gestionar de forma proactiva sus esfuerzos de IA de manera responsable.
Según la investigación de Accenture: "Solo el 35 % de los consumidores globales confía en cómo las organizaciones implementan la tecnología de IA. Y el 77 % piensa que las organizaciones deben rendir cuentas por su mal uso de la IA".1 En este ambiente, se incentiva a los desarrolladores de IA a dirigir sus esfuerzos con un marco ético de IA sólido y coherente.
Esto se aplica especialmente a los nuevos tipos de IA generativa que las empresas están adoptando rápidamente. Los principios de IA responsable pueden ayudar a quienes los adoptan a aprovechar todo el potencial de estas herramientas, al mismo tiempo que minimizan los resultados no deseados.
La IA debe ser fiable y, para que las partes interesadas confíen en ella, debe ser transparente. Las empresas tecnológicas deben dejar claro quién entrena a sus sistemas de IA, qué datos se utilizaron en ese entrenamiento y, lo que es más importante, qué se incluyó en las recomendaciones de sus algoritmos. Si vamos a utilizar la IA para ayudar a tomar decisiones importantes, debe ser explicable.
IBM ha desarrollado un marco para dejar claros estos principios. Veamos las propiedades que componen los "Pilares de la confianza". En conjunto, estas propiedades responden a la pregunta: "¿Qué se necesita para confiar en el resultado de un modelo de IA?" La IA de confianza es un imperativo estratégico y ético en IBM, pero cualquier empresa puede utilizar estos pilares para guiar sus esfuerzos en IA.
Los modelos de machine learning, como las redes neuronales profundas, están logrando una precisión impresionante en diversas tareas. Pero la explicabilidad y la interpretabilidad son cada vez más esenciales para el desarrollo de una IA fiable. El planteamiento de IBM sobre la explicabilidad se basa en tres principios.
La precisión es un componente clave del éxito del uso de la IA en las operaciones diarias. La precisión de la predicción puede determinarse realizando simulaciones y comparando los resultados de la IA con los del conjunto de datos de entrenamiento. La técnica más utilizada para ello son las explicaciones locales interpretables del modelo (LIME), que explican la predicción de los clasificadores por el algoritmo de machine learning.
La trazabilidad es una propiedad de la IA que significa si permite a los usuarios realizar un seguimiento de sus predicciones y procesos. Implica la documentación de los datos y la forma en que los modelos los procesan. La trazabilidad es otra técnica clave para lograr la explicabilidad, y se consigue, por ejemplo, limitando la forma en que pueden tomarse las decisiones y estableciendo un ámbito más estrecho para las reglas y características del machine learning.
Este es el factor humano. Los profesionales tienen que poder entender cómo y por qué la IA saca conclusiones. Esto se logra a través de la formación continua.
Los modelos de machine learning se utilizan cada vez más para fundamentar la toma de decisiones de alto riesgo relacionadas con las personas. Aunque el machine learning, por su propia naturaleza, es una forma de discriminación estadística, la discriminación se vuelve objetable cuando coloca a grupos privilegiados en ventaja sistemática y a ciertos grupos no privilegiados en desventaja sistemática, lo que puede causar daños variados. Los sesgos en los datos de entrenamiento, debidos a prejuicios en las etiquetas o al submuestreo o al sobremuestreo, producen modelos con sesgos no deseados.
Datos diversos y representativos
Asegúrese de que los datos de entrenamiento utilizados para crear modelos de IA sean diversos y representativos de la población a la que deben servir. Incluya entradas de datos de varios grupos demográficos para evitar la infrarrepresentación o el sesgo. Compruebe y evalúe periódicamente los datos de entrenamiento para detectar sesgos. Utilice herramientas y métodos para identificar y corregir sesgos en el conjunto de datos antes de entrenar el modelo.
Algoritmos conscientes del sesgo
Incorpore métricas de equidad en el proceso de desarrollo para evaluar cómo afectan a los distintos subgrupos las predicciones del modelo. Monitorice y minimice las disparidades en los resultados entre distintos grupos demográficos. Aplique restricciones en el algoritmo para garantizar que el modelo cumpla con los criterios de equidad predefinidos durante el entrenamiento y la implementación.
Técnicas de mitigación de sesgos
Aplique técnicas como el remuestreo, la reponderación y el entrenamiento adversarial para mitigar los sesgos en las predicciones del modelo.
Equipos de desarrollo diversos
Reúna equipos interdisciplinarios y diversos involucrados en el desarrollo de la IA. Los equipos diversos pueden aportar diferentes perspectivas, lo que ayuda a identificar y rectificar los sesgos que los equipos homogéneos pueden pasar por alto.
Comités de revisión ética de la IA
Cree juntas o comités de revisión para evaluar los posibles sesgos e implicaciones éticas de los proyectos de IA. Estas juntas pueden proporcionar orientación sobre consideraciones éticas a lo largo del ciclo de vida del desarrollo.
Una IA sólida maneja con eficacia condiciones excepcionales, como anomalías en la entrada o ataques maliciosos, sin causar daños involuntarios. También está diseñada para resistir las interferencias intencionadas y no intencionadas mediante la protección contra las vulnerabilidades expuestas. Nuestra creciente confianza en estos modelos y el valor que representan como acumulación de conocimientos confidenciales y patentados, corren un riesgo de ataque cada vez mayor. Estos modelos plantean riesgos de seguridad únicos que deben tenerse en cuenta y mitigarse.
Los usuarios deben ser capaces de ver cómo funciona el servicio, evaluar su funcionalidad y comprender sus puntos fuertes y sus limitaciones. El aumento de la transparencia ofrece a los consumidores de IA más información sobre el proceso de creación del modelo o servicio de IA. Esto ayuda al usuario del modelo a determinar si es adecuado para un caso de uso específico o a evaluar cómo una IA ha llegado a conclusiones inexactas o sesgadas.
Muchos marcos regulatorios, incluido el RGPD, exigen que las organizaciones cumplan con ciertos principios de privacidad al procesar información personal. Un tercero malintencionado con acceso a un modelo ML entrenado, incluso sin acceso a los propios datos de entrenamiento, puede revelar información personal sensible sobre las personas cuyos datos se utilizaron para entrenar el modelo. Es crucial poder proteger los modelos de IA que pueden contener información personal y controlar qué datos entran en el modelo en primer lugar.
La implementación de prácticas de IA responsable a nivel empresarial implica un enfoque holístico de extremo a extremo que aborde varias etapas del desarrollo y la implementación de la IA.
Desarrolle un conjunto de principios de IA responsable que se alineen con los valores y objetivos de la empresa. Considere los aspectos clave descritos anteriormente en los "Pilares de la confianza". Tales principios pueden ser desarrollados y mantenidos por un equipo interdisciplinar dedicado de ética de la IA con representación de diversos departamentos, incluidos especialistas en IA, especialistas en ética, expertos jurídicos y líderes empresariales.
Llevar a cabo programas de formación para educar a los empleados, las partes interesadas y los responsables de la toma de decisiones sobre las prácticas de la IA responsable. Esto incluye comprender posibles sesgos, consideraciones éticas y la importancia de incorporar una IA responsable en las operaciones comerciales.
Incorpore prácticas de IA responsable en toda la canalización de desarrollo de la IA, desde la recopilación de datos y el entrenamiento de modelos hasta la implementación y la monitorización continua. Emplee técnicas para abordar y mitigar los sesgos en los sistemas de IA. Evalúe periódicamente la equidad de los modelos, especialmente en lo que respecta a atributos sensibles como la raza, el género o el estatus socioeconómico. Priorice la transparencia haciendo que los sistemas de IA sean explicables. Proporcione documentación clara sobre fuentes de datos, algoritmos y procesos de decisión. Los usuarios y las partes interesadas deben poder comprender cómo toman decisiones los sistemas de IA.
Establezca prácticas y salvaguardas sólidas de gobierno de datos e IA para proteger la privacidad y los datos confidenciales de los usuarios finales. Comunique claramente las políticas de uso de datos, obtenga el consentimiento informado y cumpla con la normativa de protección de datos.
Integre mecanismos de supervisión humana en los procesos cruciales de toma de decisiones. Defina líneas claras de responsabilidad para garantizar que las partes responsables sean identificadas y puedan ser consideradas responsables de los resultados de los sistemas de IA. Lleve a cabo una monitorización continua de los sistemas de IA para identificar y abordar las preocupaciones éticas, los sesgos o los problemas que puedan surgir con el tiempo. Audite periódicamente los modelos de IA para evaluar el cumplimiento de las directrices éticas.
Fomente la colaboración con organizaciones externas, instituciones de investigación y grupos de código abierto que trabajen en la IA responsable. Manténgase informado sobre los últimos avances en prácticas e iniciativas de IA responsable y contribuya a los esfuerzos de todo el sector.
Descubra cómo afectará la Ley de IA de la UE a las empresas, cómo prepararse, cómo puede mitigar los riesgos y cómo equilibrar la regulación y la innovación.
Conozca los nuevos retos de la IA generativa, la necesidad de gobernar los modelos de IA y ML y los pasos para crear un marco de IA fiable, transparente y explicable.
Lea sobre cómo impulsar prácticas éticas y conformes con la normativa con una cartera de productos de IA para modelos de IA generativa.
Obtenga una comprensión más profunda de cómo garantizar la equidad, gestionar la desviación, mantener la calidad y mejorar la explicabilidad con watsonx.governance.
Hemos encuestado a 2000 organizaciones sobre sus iniciativas de IA para descubrir qué funciona, qué no y cómo puede adelantarse.
Aprenda a seleccionar el modelo fundacional de IA más adecuado para su caso de uso.
Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube o en las instalaciones con IBM watsonx.governance.
Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.
Simplifique la gestión de riesgos y el cumplimiento normativo con una plataforma GRC unificada.
1 Technology Vision 2022. Accenture. 2022.