¿Cómo debería ser un marco de gobernanza ética de la IA?

Halo de líneas de iluminación óptica de monolito cuadrado de neón, puesta de sol rosa en un ámbito CGI

Si bien la carrera para lograr la IA generativa se intensifica, el debate ético en torno a la tecnología también continúa calentándose. Y las apuestas no paran de aumentar.

Según Gartner, "las organizaciones son responsables de garantizar que los proyectos de IA que desarrollan, desplegar o utilizan no tengan consecuencias éticas negativas". Mientras tanto, el 79 % de los ejecutivos dice que la ética de la IA es importante para su enfoque de IA en toda la empresa, pero menos del 25 % ha puesto en práctica los principios de gobernanza de la ética.

La IA también ocupa un lugar alto en la lista de preocupaciones del gobierno de Estados Unidos. A finales de febrero, el presidente Mike Johnson y el líder demócrata Hakeem Jeffries anunciaron el establecimiento de un grupo de trabajo bipartidista sobre IA para explorar cómo el Congreso puede garantizar que Estados Unidos continúe liderando la innovación global en IA. El Grupo de Trabajo también considerará las medidas de protección necesarias para salvaguardar a la nación frente a las amenazas actuales y emergentes y garantizar el desarrollo de una tecnología segura y confiable.

Claramente, la buena gobernanza es esencial para abordar los riesgos asociados con la IA.

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Por qué importa la gobernanza de la IA

A medida que las empresas adoptan cada vez más la IA en sus operaciones cotidianas, el uso ético de esta tecnología se ha convertido en un tema candente. El problema es que las organizaciones a menudo se basan en principios corporativos amplios, combinados con juntas legales o de revisión independientes, para evaluar los riesgos éticos de los casos de uso individuales de la IA.

Sin embargo, según el estudio de caso de Gartner, los principios éticos de la IA pueden ser demasiado amplios o abstractos. Entonces, los líderes de los proyectos se enfrentan al dilema de decidir si los casos de uso individuales de la IA son éticos o no. Mientras tanto, los equipos legales y de la junta de revisión carecen de visibilidad sobre cómo se utiliza realmente la IA en los negocios. Todo esto abre la puerta a un uso poco ético (intencionado o no) de la IA y a riesgos empresariales y de cumplimiento normativo consecuentes.

Dado el impacto potencial, el problema debe abordarse primero a nivel de gobernanza. Luego, debe seguir la implementación organizacional posterior con los controles y equilibrios apropiados.

AI Academy

Confianza, transparencia y gobernanza en IA

Es probable que la confianza en la IA sea el tema más importante en el campo de la IA. También es, comprensiblemente, un tema abrumador. Desentrañaremos cuestiones, como las alucinaciones, el sesgo y el riesgo, y compartiremos medidas para adoptar la IA de manera ética, responsable y justa.

Cuatro funciones fundamentales del marco de gobernanza de la IA

Según el estudio de caso, los líderes de negocios y privacidad de IBM desarrollaron un marco para abordar las preocupaciones éticas en torno a los proyectos de IA. Esta infraestructura se sustenta en cuatro funciones fundamentales:

  1. Comité asesor de políticas: Los líderes sénior son responsables de determinar los objetivos regulatorios y de políticas públicas globales, así como los riesgos y Estrategias de privacidad, datos y ética de Tecnología.

  2. Junta de ética de IA: copresidida por el líder global de ética de IA de IBM Research y el director de privacidad y confianza, la junta comprende un equipo multifuncional y centralizado que define, mantiene y asesora sobre las políticas, prácticas y comunicaciones de ética de IA de IBM .

  3. Puntos focales de ética de la IA: Cada unidad de negocio tiene puntos focales (representantes de unidad de negocio) que actúan como primer punto de contacto para identificar y evaluar de manera proactiva las preocupaciones sobre ética de la tecnología, mitigar los riesgos para casos de uso individuales y remitir proyectos al Consejo de Ética de la IA para su revisión. Gran parte de la gobernanza de la IA depende de estas personas, como veremos más adelante.

  4. Red de defensa: una red de base de empleados que promueven una cultura de Tecnología de IA ética, responsable y confiable. Estos defensores contribuyen a abrir flujos de trabajo y ayudan a escalar las iniciativas de ética de la IA en toda la organización.

Criterios de evaluación basados en riesgos

Si se identifica un problema de ética de la IA, el punto focal asignado a la unidad de negocio del caso de uso iniciará una evaluación. El Focal Point ejecuta este proceso en primera línea, lo que permite el triaje de casos de bajo riesgo. Para los casos de mayor riesgo, se completa una evaluación formal de riesgos y se remite al Consejo de Ética de IA para su revisión.

Cada caso de uso se evalúa utilizando pautas que incluyen:

  • Propiedades asociadas y uso previsto: investiga la naturaleza, el uso previsto y el nivel de riesgo de un caso de uso particular. ¿Podría el caso de uso causar daño? ¿Quién es el usuario final? ¿Se están violando derechos individuales?

  • Cumplimiento normativo: determina si los datos se manejarán de forma segura y de acuerdo con las leyes de privacidad aplicables y las regulaciones de la industria.

  • Casos de uso revisados previamente: proporciona información y siguientes pasos de casos de uso revisados previamente por el Consejo de Ética de IA. Incluye una lista de casos de uso de IA que requieren la aprobación de la junta directiva.

  • Alineación con los principios éticos de la IA: determina si los casos de uso cumplen con los requisitos fundamentales, como la alineación con los principios de equidad, transparencia, explicabilidad, solidez y privacidad.

Beneficios de un marco de gobierno de IA

Según el informe de Gartner, la implementación de un marco de Gobernanza de la IA benefició a IBM por:

  • Escalar la ética de la IA: Los puntos focales impulsan el cumplimiento e inician revisiones en sus respectivas unidades de negocio, lo que permite una revisión de la ética de la IA a escala.

  • Aumentar la alineación estratégica de la visión de la ética dela IA: los puntos focales se conectan con líderes técnicos, de pensamiento y empresariales en el espacio de la ética de la IA en toda la empresa y en todo el mundo.

  • Acelerar la finalización de proyectos y propuestas de bajo riesgo: al clasificar los servicios o proyectos de bajo riesgo, los puntos focales permiten las capacidades de revisar los proyectos más rápido.

  • Mejora de la preparación y preparación de la junta: Al capacitar a los puntos focales para guiar la ética de IA al principio del proceso, la Junta de Ética de IA puede revisar los casos de uso restantes de manera más eficiente.

Un gran poder conlleva una gran responsabilidad.

Cuando ChatGPT debutó en junio de 2020, todo el mundo estaba lleno de expectativas. Ahora, las tendencias actuales de la IA apuntan hacia expectativas más realistas sobre la tecnología. Las herramientas independientes como ChatGPT pueden capturar la imaginación popular, pero la integración efectiva en los servicios establecidos generará un cambio más profundo en todas las industrias.

Sin duda, la IA abre la puerta a nuevas herramientas y técnicas poderosas para hacer que el trabajo se realice. Sin embargo, los riesgos asociados también son reales. Las capacidades elevadas de IA multimodal y las barreras de entrada reducidas también invitan al abuso: los deepfakes, los problemas de privacidad, la perpetuación del sesgo e incluso la evasión de las salvaguardas de CAPTCHA pueden ser cada vez más fáciles para los grupos de amenazas.

Aunque los actores maliciosos ya están empleando la IA, el mundo empresarial legítimo también debe tomar medidas preventivas para mantener seguros a empleados, clientes y comunidades.

ChatGPT dice: “Las consecuencias negativas pueden abarcar sesgos perpetuados por algoritmos de IA, violaciones de la privacidad, exacerbación de las desigualdades sociales o daños involuntarios a individuos o comunidades. Además, podría haber implicaciones para la confianza, daño a la reputación o ramificaciones legales derivadas de prácticas de IA poco éticas”.

Para protegerse contra este tipo de riesgos, la gobernanza ética de la IA es esencial.

Soluciones relacionadas
IBM watsonx.governance

Gobierne modelos de IA generativa desde cualquier lugar y despliéguelos en la nube u on-premises con IBM watsonx.governance.

Descubra watsonx.governance
Soluciones de gobernanza de la IA

Vea cómo la gobernanza de la IA puede ayudar a aumentar la confianza de sus empleados en la IA, acelerar la adopción y la innovación y mejorar la confianza de los clientes.

Descubra las soluciones de gobernanza de la IA
Servicios de consultoría sobre gobernanza de la IA

Prepárese para la Ley de IA de la UE y establezca un enfoque de gobernanza para la IA responsable con la ayuda de IBM® Consulting.

Descubra los servicios de gobernanza de la IA
Dé el siguiente paso

Dirija, gestione y monitoree su IA con una única cartera para acelerar una IA responsable, transparente y explicable.

Explore watsonx.governance Agende una demostración en vivo