A medida que las empresas aumentan el uso de la inteligencia artificial (IA), la gente se pregunta hasta qué punto los sesgos humanos han llegado a los sistemas de IA. Los ejemplos de sesgo de IA en el mundo real nos muestran que cuando los datos y algoritmos discriminatorios se incorporan en modelos de IA, los modelos despliegan sesgos a escala y amplifican los efectos negativos resultantes.
Las empresas están motivadas a abordar el desafío del sesgo en la IA no solo para lograr equidad, sino también para garantizar mejores resultados. Sin embargo, al igual que los sesgos raciales y de género sistémicos han demostrado ser difíciles de eliminar en el mundo real, eliminar los sesgos en la IA no es una tarea fácil.
En el artículo What AI can and can't do (yet) for your business, los autores Michael Chui, James Manyika y Mehdi Miremadi de McKinsey señalaron: “Tales sesgos tienden a permanecer arraigados porque reconocerlos y tomar medidas para abordarlos, requiere un dominio profundo de las técnicas de ciencia de datos, así como una mayor comprensión de las fuerzas sociales existentes, incluida la recopilación de datos. En conjunto, la eliminación de sesgos está demostrando ser uno de los obstáculos más desalentadores y, sin duda, el más cargado de problemas sociales hasta la fecha”.
Los ejemplos de sesgos de la IA de la vida real proporcionan a las organizaciones información útil sobre cómo identificar y abordar los sesgos. Al analizar críticamente estos ejemplos y los éxitos en la superación del sesgo, los científicos de datos pueden comenzar a crear una hoja de ruta para identificar y prevenir el sesgo en sus modelos de aprendizaje automático.
El sesgo de la IA, también conocido como sesgo de aprendizaje automático o sesgo de algoritmo, se refiere a los sistemas de IA que producen resultados sesgados que reflejan y perpetúan los sesgos humanos dentro de una sociedad, incluida la desigualdad social histórica y actual. Las sesgos se pueden encontrar en los datos iniciales de entrenamiento, el algoritmo o las predicciones que produce el algoritmo.
Cuando el sesgo no se aborda, obstaculiza la capacidad de las personas para participar en la economía y la sociedad. También reduce el potencial de la IA. Las empresas no pueden beneficiarse de sistemas que producen resultados distorsionados y fomentan la desconfianza entre las personas de color, las mujeres, las personas con discapacidad, la comunidad LGBTQ u otros grupos de personas marginadas.
Eliminar el sesgo de la IA requiere profundizar en los conjuntos de datos, los algoritmos de aprendizaje automático y otros elementos de los sistemas de IA para identificar las fuentes de posibles sesgos.
Los sistemas de IA aprenden a tomar decisiones basadas en datos de entrenamiento, por lo que es vital evaluar los conjuntos de datos para detectar la presencia de sesgos. Un método es revisar las muestras de datos para grupos sobrerrepresentados o subrepresentados dentro de los datos de entrenamiento. Por ejemplo, los datos de entrenamiento para un algoritmo de reconocimiento facial que sobrerrepresenta a las personas blancas pueden crear errores en los intentos de reconocimiento facial para personas de color. Del mismo modo, los datos de seguridad que incluyen información recopilada en áreas geográficas que son predominantemente negras podrían crear sesgos raciales en las herramientas de IA empleadas por la policía.
El sesgo también puede deberse a cómo se etiquetan los datos de entrenamiento. Por ejemplo, las herramientas de contratación de IA que emplean un etiquetado incoherente o excluyen o sobrerrepresentan ciertas características podrían eliminar la consideración de los solicitantes de empleo calificados.
El uso de datos de entrenamiento erróneos puede dar lugar a algoritmos que produzcan repetidamente errores, resultados injustos o incluso amplifiquen el sesgo inherente a los datos erróneos. El sesgo algorítmico también puede ser causado por errores de programación, como que un desarrollador pondere injustamente los factores en la toma de decisiones del algoritmo en función de sus propios sesgos conscientes o inconscientes. Por ejemplo, el algoritmo podría emplear indicadores como los ingresos o el vocabulario para discriminar involuntariamente a personas de un determinado grupo étnico o género.
Cuando las personas procesamos información y hacemos juicios, inevitablemente nos vemos influenciados por nuestras experiencias y nuestras preferencias. Como resultado, las personas pueden incorporar estos sesgos en los sistemas de IA a través de la selección de datos o la forma en que se ponderan los datos. Por ejemplo, el sesgo cognitivo podría llevar a favorecer conjuntos de datos recopilados de estadounidenses en lugar de muestras de una variedad de poblaciones de todo el mundo.
Según el NIST, esta fuente de sesgo es más común de lo que se piensa. En su informe Towards a Standard for Identifying and Managing Bias in Artificial Intelligence (Publicación especial 1270 del NIST), el NIST señaló que “los factores humanos, institucionales y sociales sistémicos también son fuentes importantes del sesgo de la IA, y actualmente se pasan por alto. Para enfrentar con éxito este desafío será necesario tener en cuenta todas las formas de sesgo. Esto significa ampliar nuestra perspectiva más allá del canal del aprendizaje automático para reconocer e investigar cómo se crea esta tecnología dentro de nuestra sociedad e impacta en ella”.
A medida que la sociedad se vuelve más consciente de cómo funciona la IA y de la posibilidad de sesgo, las organizaciones han descubierto numerosos ejemplos de alto perfil de sesgo en la IA en una amplia gama de casos de uso.
Identificar y abordar el sesgo en la IA comienza con la gobernanza de la IA, o la capacidad de dirigir, gestionar y monitorear las actividades de IA de una organización. En la práctica, la gobernanza de la IA crea un conjunto de políticas, prácticas y marcos para guiar el desarrollo y uso responsables de las tecnologías de IA. Cuando se hace bien, la gobernanza de la IA garantiza un equilibrio de beneficios para las empresas, los clientes, los empleados y la sociedad en su conjunto.
A través de las políticas de gobernanza de la IA, las empresas pueden crear las siguientes prácticas:
Una combinación tecnológica adecuada puede ser indispensable para una estrategia eficaz de gobernanza de los datos y la IA, con una arquitectura de datos moderna y una plataforma de IA confiable como componentes clave. La orquestación de políticas dentro de una arquitectura de tejido de datos es una excelente herramienta que puede simplificar los complejos procesos de auditoría de IA. Al incorporar la auditoría de IA y los procesos relacionados en las políticas de gobernanza de su arquitectura de datos, su organización puede comprender las áreas que requieren una inspección continua.
En IBM Consulting, hemos estado ayudando a los clientes a establecer un proceso de evaluación de sesgos y otras áreas. A medida que la adopción de la IA se amplía y las innovaciones evolucionan, también se desarrollarán las directrices de seguridad, como es el caso de cada tecnología que se ha integrado en el tejido de una empresa a lo largo de los años. A continuación, compartimos algunas de las mejores prácticas de IBM para ayudar a las organizaciones a prepararse para el despliegue seguro de IA en sus entornos:
Explore lo que watson.governance puede hacer por usted