Qué necesita una organización para gestionar la IA de forma responsable

Compañeros de trabajo colaborando y hablando del trabajo

Autores

Teaganne Finn

Staff Writer

IBM Think

Voy a decirlo: muchas organizaciones utilizan la inteligencia artificial (IA), se den cuenta o no. La pregunta es, ¿cómo? ¿Cómo utilizan las organizaciones la IA y cómo saben que lo están haciendo de forma responsable?

Phaedra Boinodiris, responsable global de IA fiable en IBM® Consulting, afirma que ganarse la confianza en la IA es un reto sociotécnico, siendo la parte más difícil el lado humano. El enfoque integral necesario se puede dividir en tres componentes: personas, procesos y herramientas, junto con algunos principios clave para abordarlos dentro de una organización.

Al pensar en las personas, la atención se centra en descubrir la cultura organizativa adecuada necesaria para curar la IA de forma responsable. Los procesos de gobierno de la IA son necesarios para recopilar el inventario y los metadatos adecuados, realizar evaluaciones de riesgos y mucho más. Las organizaciones también deben contar con las herramientas adecuadas en los marcos de ingeniería de IA, utilizadas a lo largo del ciclo de vida de la IA, para ayudar a garantizar que estos modelos reflejen la intención correcta.

Diseño 3D de bolas rodando por un circuito

Las últimas noticias + conocimientos de IA 


Descubra ideas y noticias de expertos sobre IA, nube y mucho más en el boletín semanal Think. 

Tres puntos clave

Boinodiris señala que de los tres componentes, las personas son la parte más difícil para lograr el equilibrio adecuado de una IA responsable en una organización.  

"Conseguir la cultura organizativa adecuada es todo un reto. Y a la hora de pensar en cuál es esa cultura organizativa adecuada que se requiere para gestionar la IA de forma responsable, hay algunos principios clave", dijo Boinodiris.

Principio 1: Humildad 

La primera es abordar el espacio con "tremenda humildad" porque los miembros de una organización llegan con mucho que aprender y desaprender. Lo que Boinodiris quiere decir cuando dice desaprender es olvidar quién se sienta a la mesa durante estas conversaciones. El debate en torno a la IA debe incluir a personas de múltiples disciplinas con diferentes antecedentes para elaborar la IA de manera holística.

Eso significa que tener una mentalidad de crecimiento será clave para fomentar la IA responsable. Boinodiris añade que las organizaciones necesitan dar a su gente seguridad psicológica y un espacio seguro para llevar a cabo lo que pueden ser conversaciones difíciles en torno al tema de la IA.

Principio 2: Diversas visiones del mundo

El segundo principio es reconocer que las personas provienen de diferentes experiencias mundiales y que todas las perspectivas importan. Las organizaciones deben reconocer la diversidad de su personal y de las personas que construyen los modelos de IA y los gobiernan. No se trata solo de su género, raza, etnia u orientación sexual. Se trata de la perspectiva y la experiencia del mundo vivido.

"Lo que de verdad quiero decir es que las personas que han vivido diferentes experiencias en el mundo deben estar presentes cuando piensan en cosas como: ¿Es esto apropiado? ¿Esto va a resolver el problema? ¿Son estos los datos correctos? ¿Qué podría salir mal? ¿Cuál podría ser el daño?" dijo Boinodiris.

Principio 3: Multidisciplinariedad

Por último, las personas o equipos que crean y gobiernan estos modelos de IA para una organización deben ser multidisciplinares. Lo que parece es tener un equipo de personas con diferentes antecedentes, como sociólogos, antropólogos y expertos legales, que representan la clave para crear IA de manera responsable.

AI Academy

Unir seguridad y gobierno para el futuro de la IA

Basando la conversación en la última tendencia actual, la IA agéntica, este episodio de AI Academy explora el tira y afloja que experimentan los líderes en materia de riesgos y garantías entre el gobierno y la seguridad. Es fundamental establecer un equilibrio y dar prioridad a una relación de trabajo para que ambos puedan obtener datos mejores y más fiables, así como una IA que su organización pueda ampliar.

Reconocimiento del sesgo

Según Boinodiris, uno de los mitos más comunes en torno al tema de la IA es que el 100 % del esfuerzo es la codificación. Ella dice que no es cierto.

"Sabemos muy bien que más del 70 % del esfuerzo consiste en averiguar si estos datos son los correctos. Lo fascinante de los datos, mi definición favorita, es que son un artefacto de la experiencia humana", dijo.

Los humanos son los que generan los datos y fabrican las máquinas que los generan, pero hay que reconocer que todo el mundo tiene prejuicios; 188 para ser exactos, según Boinodiris. Los humanos han tenido estos sesgos desde el principio de los tiempos y por una buena razón. 

Boinodiris compara la IA con un espejo en la forma en que refleja los sesgos de una persona. Y de lo que se trata es de ser lo suficientemente valiente como para mirarse introspectivamente en ese espejo y decidir si el reflejo se alinea con los valores de la organización.

Impulsar la transparencia

Las organizaciones a cargo de estos modelos de IA deben ser transparentes sobre por qué tomaron una decisión concreta en relación con los datos o eligieron un enfoque determinado. O por qué eligieron una metodología en lugar de otra. Las personas deben crear una ficha técnica para sus soluciones de IA que detalle información importante sobre el modelo.

Por ejemplo, cosas como el uso previsto adecuado, de dónde proceden los datos, cuál es la metodología, quién es responsable, cuándo se audita el modelo y con qué frecuencia. Para qué se audita, cuáles son los resultados de la auditoría, etc.

Por otra parte, las personas deben ser lo suficientemente conscientes de sí mismas como para darse cuenta de si esa reflexión no se alinea con sus valores; si no es así, deben cambiar el enfoque.

"Así que, cuando oiga a la gente decir: 'mi modelo de IA no tiene ningún sesgo', recuerde esto: Todos los datos están sesgados. La clave es ser transparente sobre por qué consideró que estos datos eran lo más importante que debía tener en su modelo", dijo Boinodiris. Y recuerde que debe ser constantemente introspectivo, ya que nuestros puntos de vista, nuestro ethos, cambiarán con el tiempo.

La confianza en la IA se gana, no se da. Mantenga conversaciones difíciles con los miembros del equipo sobre de dónde podrían provenir sus sesgos y reconozca que crear un modelo de IA responsable y fiable no es lineal y requiere mucho trabajo.

Soluciones relacionadas
IBM® watsonx.governance

Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube u on premises con IBM® watsonx.governance.

Descubra watsonx.governance
Soluciones de gobierno de la IA

Descubra cómo el gobierno de la IA puede ayudar a aumentar la confianza de sus empleados en la IA, acelerar la adopción y la innovación, y mejorar la confianza de los clientes.

Descubra soluciones de gobierno de la IA
Servicios de consultoría sobre gobierno de la IA

Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.

Descubra los servicios de gobierno de la IA
Dé el siguiente paso

Dirija, gestione y monitorice su IA a través de un portfolio unificado, acelerando resultados responsables, transparentes y explicables.

  1. Explore watsonx.governance
  2. Solicite una demo en directo