Voy a decirlo: muchas organizaciones utilizan la inteligencia artificial (IA), se den cuenta o no. La pregunta es, ¿cómo? ¿Cómo utilizan las organizaciones la IA y cómo saben que lo están haciendo de forma responsable?
Phaedra Boinodiris, responsable global de IA fiable en IBM® Consulting, afirma que ganarse la confianza en la IA es un reto sociotécnico, siendo la parte más difícil el lado humano. El enfoque integral necesario se puede dividir en tres componentes: personas, procesos y herramientas, junto con algunos principios clave para abordarlos dentro de una organización.
Al pensar en las personas, la atención se centra en descubrir la cultura organizativa adecuada necesaria para curar la IA de forma responsable. Los procesos de gobierno de la IA son necesarios para recopilar el inventario y los metadatos adecuados, realizar evaluaciones de riesgos y mucho más. Las organizaciones también deben contar con las herramientas adecuadas en los marcos de ingeniería de IA, utilizadas a lo largo del ciclo de vida de la IA, para ayudar a garantizar que estos modelos reflejen la intención correcta.
Boinodiris señala que de los tres componentes, las personas son la parte más difícil para lograr el equilibrio adecuado de una IA responsable en una organización.
"Conseguir la cultura organizativa adecuada es todo un reto. Y a la hora de pensar en cuál es esa cultura organizativa adecuada que se requiere para gestionar la IA de forma responsable, hay algunos principios clave", dijo Boinodiris.
La primera es abordar el espacio con "tremenda humildad" porque los miembros de una organización llegan con mucho que aprender y desaprender. Lo que Boinodiris quiere decir cuando dice desaprender es olvidar quién se sienta a la mesa durante estas conversaciones. El debate en torno a la IA debe incluir a personas de múltiples disciplinas con diferentes antecedentes para elaborar la IA de manera holística.
Eso significa que tener una mentalidad de crecimiento será clave para fomentar la IA responsable. Boinodiris añade que las organizaciones necesitan dar a su gente seguridad psicológica y un espacio seguro para llevar a cabo lo que pueden ser conversaciones difíciles en torno al tema de la IA.
El segundo principio es reconocer que las personas provienen de diferentes experiencias mundiales y que todas las perspectivas importan. Las organizaciones deben reconocer la diversidad de su personal y de las personas que construyen los modelos de IA y los gobiernan. No se trata solo de su género, raza, etnia u orientación sexual. Se trata de la perspectiva y la experiencia del mundo vivido.
"Lo que de verdad quiero decir es que las personas que han vivido diferentes experiencias en el mundo deben estar presentes cuando piensan en cosas como: ¿Es esto apropiado? ¿Esto va a resolver el problema? ¿Son estos los datos correctos? ¿Qué podría salir mal? ¿Cuál podría ser el daño?" dijo Boinodiris.
Por último, las personas o equipos que crean y gobiernan estos modelos de IA para una organización deben ser multidisciplinares. Lo que parece es tener un equipo de personas con diferentes antecedentes, como sociólogos, antropólogos y expertos legales, que representan la clave para crear IA de manera responsable.
Según Boinodiris, uno de los mitos más comunes en torno al tema de la IA es que el 100 % del esfuerzo es la codificación. Ella dice que no es cierto.
"Sabemos muy bien que más del 70 % del esfuerzo consiste en averiguar si estos datos son los correctos. Lo fascinante de los datos, mi definición favorita, es que son un artefacto de la experiencia humana", dijo.
Los humanos son los que generan los datos y fabrican las máquinas que los generan, pero hay que reconocer que todo el mundo tiene prejuicios; 188 para ser exactos, según Boinodiris. Los humanos han tenido estos sesgos desde el principio de los tiempos y por una buena razón.
Boinodiris compara la IA con un espejo en la forma en que refleja los sesgos de una persona. Y de lo que se trata es de ser lo suficientemente valiente como para mirarse introspectivamente en ese espejo y decidir si el reflejo se alinea con los valores de la organización.
Las organizaciones a cargo de estos modelos de IA deben ser transparentes sobre por qué tomaron una decisión concreta en relación con los datos o eligieron un enfoque determinado. O por qué eligieron una metodología en lugar de otra. Las personas deben crear una ficha técnica para sus soluciones de IA que detalle información importante sobre el modelo.
Por ejemplo, cosas como el uso previsto adecuado, de dónde proceden los datos, cuál es la metodología, quién es responsable, cuándo se audita el modelo y con qué frecuencia. Para qué se audita, cuáles son los resultados de la auditoría, etc.
Por otra parte, las personas deben ser lo suficientemente conscientes de sí mismas como para darse cuenta de si esa reflexión no se alinea con sus valores; si no es así, deben cambiar el enfoque.
"Así que, cuando oiga a la gente decir: 'mi modelo de IA no tiene ningún sesgo', recuerde esto: Todos los datos están sesgados. La clave es ser transparente sobre por qué consideró que estos datos eran lo más importante que debía tener en su modelo", dijo Boinodiris. Y recuerde que debe ser constantemente introspectivo, ya que nuestros puntos de vista, nuestro ethos, cambiarán con el tiempo.
La confianza en la IA se gana, no se da. Mantenga conversaciones difíciles con los miembros del equipo sobre de dónde podrían provenir sus sesgos y reconozca que crear un modelo de IA responsable y fiable no es lineal y requiere mucho trabajo.
Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube u on premises con IBM® watsonx.governance.
Descubra cómo el gobierno de la IA puede ayudar a aumentar la confianza de sus empleados en la IA, acelerar la adopción y la innovación, y mejorar la confianza de los clientes.
Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.