Inteligencia Artificial

Cómo mitigar el sesgo en los sistemas de Inteligencia Artificial

Share this post:

*Artículo IBM Policy Lab

 

No cabe duda de que los sesgos humanos pueden influir en los algoritmos de inteligencia artificial (IA) y causar resultados discriminatorios. Sin embargo, es difícil determinar en qué medida estos sesgos se filtran en las tecnologías que desarrollamos y utilizamos en nuestra vida cotidiana. Aunque mitigar los sesgos en la IA sigue siendo un reto para algunos modelos y sistemas automatizados de toma de decisiones, es imperativo reducir la probabilidad de resultados indeseables.

Día a día, la sociedad evoluciona con la rápida innovación de las tecnologías emergentes, especialmente la IA. En ese sentido, la industria, los gobiernos, la academia y los consumidores tienen la responsabilidad compartida de asegurar que los sistemas de IA sean debidamente probados y evaluados ante la posibilidad de sesgo. Además, cualquier acción o práctica prohibida por la legislación antidiscriminatoria vigente debería aplicarse también a los sistemas de toma de decisiones automatizados. Para respaldar las estrategias de mitigación de los sesgos en los sistemas, las organizaciones deben trabajar para crear, implementar, y poner en práctica los principios éticos de la IA, y garantizar que exista una gobernanza adecuada para revisar y supervisar continuamente los sistemas de IA.

Sin las debidas salvaguardias, la IA podría causar daños y exacerbar las desigualdades existentes. IBM cree que, para aprovechar plenamente el poder transformador de la IA, es necesario desarrollarla y evaluarla continuamente, para evitar resultados discriminatorios y que puedan perjudicar a las personas y a sus familias. Un aspecto clave del desarrollo responsable de la IA es precisamente este enfoque en la identificación y mitigación de los sesgos. En los últimos años, IBM ha compartido los resultados de investigaciones sobre el tema, ha puesto a disposición herramientas para la mitigación de sesgos, y ha proporcionado a las empresas y a sus consumidores una mejor comprensión de los sistemas de IA que construyen y utilizan cada día. Estas herramientas incluyen AI Fairness 360, AI FactSheets, IBM Watson OpenScale, así como las nuevas capacidades de IBM Watson diseñadas para ayudar a las empresas a crear una IA confiable.

El año pasado, IBM Policy Lab publicó un documento llamado “Inteligencia Artificial: un equilibrio entre regulación y la autorregulación” en el que solicitaba a los gobiernos y a la industria una serie de medidas para reforzar la confianza en la IA, utilizando un marco basado en principios como la responsabilidad, la transparencia, la equidad y la seguridad. Con el diálogo público que avanza en torno al sesgo presente en las herramientas de IA, y atento a las desigualdades y las maneras en cómo la tecnología -en áreas como la justicia penal, los servicios financieros, la atención sanitaria y los recursos humanos- puede ser mal utilizada, agravando la injusticia contra los grupos marginados, IBM sugiere que los encargados de la formulación de políticas públicas tomen medidas adicionales para dar forma a un entorno legislativo adecuado que aborde las preocupaciones legítimas de la sociedad.

IBM se compromete con la defensa de la diversidad, la equidad y la inclusión en nuestra sociedad y economía, así como en la tecnología que construimos. Para ello, solicitamos a los gobiernos que implementen cinco prioridades políticas para reforzar la adopción de pruebas, evaluaciones y estrategias de mitigación para minimizar la incidencia de los sesgos y prejuicios en los sistemas de IA:

1. Reforzar el conocimiento y alfabetización en IA para toda la sociedad. Una mayor comprensión sobre qué es la IA, sus posibles beneficios y cómo interactuar con sus sistemas, podría acelerar el desarrollo de estos y la confianza en ellos. Proporcionar este conocimiento haría que la sociedad estuviera más capacitada y con las habilidades necesarias para adaptarse al cambio constante y al futuro del trabajo, donde la inteligencia artificial será aún más prominente.

  • El desarrollo y la aplicación de una agenda nacional de “IA para todos” puede promover un ecosistema de IA más incluyente y diverso, así como apoyar la erradicación de conceptos equivocados sobre el tema.
  • El aumento de la inversión en educación para incluir a la IA en los planes de estudio de todos los niveles, y el incremento del financiamiento para la investigación sobre el tema -que incluya la participación de las instituciones más pequeñas- pueden garantizar que una gama más diversa de partes interesadas pueda guiar la planificación, el desarrollo y la aplicación de los sistemas de IA en el futuro. Aunque la industria de la IA todavía no refleja la demografía de nuestra sociedad, la transición hacia un ecosistema más diverso -desde los desarrolladores hasta los usuarios- puede permitir a las organizaciones mitigar y erradicar el sesgo presente en las herramientas, teniendo en cuenta los intereses y valores de las comunidades potencialmente afectadas.
  • Los ministerios y organismos de ciencia y tecnología también deben dar prioridad al establecimiento de alianzas que promuevan la equidad racial en la Inteligencia Artificial. Siempre que sea posible, estas colaboraciones deben incluir a representantes de las comunidades más afectadas por la desigualdad.

2. Evaluaciones y pruebas obligatorias de los sistemas de IA de alto riesgo. Además de que todas las entidades que desarrollan y poseen sistemas de IA de alto riesgo deben evaluar y probar sus sistemas, cualquier requisito obligatorio debe centrarse en proteger a los consumidores de cualquier riesgo, al tiempo que permiten la innovación. Esto significa:

  • Exigir pruebas de sesgo y mitigación de prejuicios -realizadas de forma sólida y transparente- para determinados sistemas de IA de alto riesgo, como los que se utilizan en los sistemas de procuración de justica. También tenemos que garantizar que estos sistemas sean supervisados y probados de forma continua.
  • Indicar cualquier requisito para llevar a cabo una evaluación de impacto de los sistemas de IA de alto riesgo que presenten el mayor potencial de daño antes de la implementación por parte de los propietarios de las herramientas;
  • Documentar detalladamente los procesos de evaluación, hacerlos auditables y conservarlos durante un periodo mínimo de tiempo;
  • Convocar y realizar foros nacionales e internacionales para acelerar el consenso en torno a normas, definiciones, puntos de referencia, marcos y mejores prácticas claras y coherentes para una IA confiable;
  • Proporcionar recursos y experiencias para ayudar a todas las organizaciones -no solo a las grandes empresas- a garantizar que su inteligencia artificial se despliegue de forma responsable;
  • Aumentar la inversión en investigación y desarrollo para la comprobación de sesgos y su mitigación, a fin de garantizar que los enfoques científicos más avanzados se orienten a mitigar estas deficiencias.
  • Apoyar y acelerar la formación de los desarrolladores para que comprendan y reconozcan cómo pueden introducirse involuntariamente sesgos en los sistemas de IA durante el proceso de diseño y desarrollo, y así garantizar su erradicación.

3. Exigir transparencia en la IA a través de la divulgación de información. Los desarrolladores y propietarios deben informar a los usuarios cuando interactúen con tecnologías de inteligencia artificial con poca o nula participación humana. Además, la transparencia hacia los usuarios también debe producirse cuando se utiliza un sistema de IA para tomar decisiones, como se menciona en las normativas de protección de datos como la Ley General de Protección de Datos (LGPD) en Brasil, y el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. En el caso de los sistemas automatizados de toma de decisiones, es necesario, como mínimo, comunicar al usuario por qué y cómo la IA llegó a una determinada decisión.

4. Exigir mecanismos de revisión y retroalimentación de los consumidores. Al igual que ocurre con muchas directrices de protección del consumidor, las empresas que operan con herramientas de IA de alto riesgo deben poner a disposición canales de comunicación (por ejemplo, correo electrónico, número de teléfono o dirección postal) para recibir las preguntas, preocupaciones o quejas de los usuarios relacionadas con el tema. Los propietarios deben actuar de forma responsable y realizar revisiones continuas de las preocupaciones planteadas por los consumidores y, cuando sea necesario, trabajar en cuestiones sistémicas.

5. Establecer limitaciones universales al uso de la IA y adoptar prácticas responsables de licenciamiento. Para evitar que los sistemas de inteligencia artificial de alto riesgo sean aprovechados para usos ilegales, irresponsables y perjudiciales, IBM pide:

  • el establecimiento de limitaciones universales al uso de aplicaciones de IA de alto riesgo, prohibiendo su para la vigilancia masiva, la elaboración de perfiles raciales y la violación de los derechos humanos y las libertades básicas; y
  • la ampliación del desarrollo, la educación y la adopción de términos de licencia responsables para el software de código abierto y las aplicaciones basadas en la inteligencia artificial. Este sistema voluntario de licencias podría ser utilizado por desarrolladores individuales y organizaciones para incluir disposiciones para limitar el uso de sistemas de IA potencialmente dañinos.

Se avecinan nuevas leyes, marcos normativos y directrices para mitigar los sesgos en los sistemas de IA. Si se elaboran sobre la base de las prioridades mencionadas, estas medidas pueden proporcionar a la industria y a las organizaciones pruebas, evaluaciones, recursos para mitigar las deficiencias, y requisitos educativos transparentes para aumentar la confianza y la seguridad del consumidor en la inteligencia artificial.

IBM está dispuesta a colaborar estrechamente con los responsables políticos para actuar sobre estos imperativos y garantizar que la sociedad disfrute ampliamente de los beneficios de esta tecnología increíblemente prometedora.

 

(Español)

 

*Texto original de Anjelica Dortch, Ejecutiva de Políticas de Tecnología, IBM Government & Regulatory Affairs y Dra. Stacy Hobson, Directora de Tecnologías Responsables e Inclusivas, IBM Research. Adaptaciones del equipo de Relaciones Gubernamentales de IBM Latinoamérica.

 

Para ver el blog post (en inglés) ingrese aquí.

More Inteligencia Artificial stories

IBM presenta ‘Impact’, su primer informe 100% centrado en ESG

*Por Fabio Rua, Director de Relaciones Gubernamentales de IBM en América Latina y Head Global de Políticas ESG Con gran orgullo y entusiasmo, y con la certeza de que estamos recorriendo un camino amparados en los más altos estándares de gobernanza administrativa, social y ambiental, les comparto que IBM ha publicado su primer informe anual […]

Continue reading

Abrazando nuestro futuro cuántico

*Artículo IBM Policy Lab El mundo está en la cúspide de otra revolución informática. Y esta será promovida por la convergencia de tres potentes tecnologías: computación de alto rendimiento, inteligencia artificial y computación cuántica. La computación cuántica no es simplemente una forma más rápida de hacer lo que hacen las computadoras de hoy. Tiene un […]

Continue reading

Principios para el Comercio Digital en la era post-COVID-19

Artículo PolicyLab* La epidemia por COVID-19 ha creado una turbulencia sin precedentes en la economía mundial. Según el Banco Mundial, se espera que la economía global experimente la recesión más profunda desde la Segunda Guerra Mundial. Según los pronósticos del Fondo Monetario Internacional (FMI), el impacto real de esta crisis estará marcado por la incertidumbre […]

Continue reading