Las organizaciones enfrentan graves riesgos para la prestigio de su marca si sus modelos de IA son sesgados o inexplicables. También podrían enfrentarse a auditorías gubernamentales y millones en multas por no cumplir con requisitos regulatorios complejos y cambiantes. Todos estos problemas pueden tener un impacto devastador en las relaciones con los accionistas y los clientes.
Conozca su modelo de IA y confíe en él
Los modelos de caja negra, que carecen de procesos transparentes, son una preocupación creciente para las partes interesadas de la IA. Estos modelos se construyen e implementan, pero carecen de transparencia. No siempre es fácil, incluso para el científico de datos, rastrear cómo y por qué el modelo tomó la decisión. Y con el auge de las regulaciones, como la ley de la ciudad de Nueva York que regula cómo se utiliza la IA para las contrataciones y la ley de IA propuesta por la Unión Europea, las empresas deben ser más inteligentes, con rapidez.
La gobernanza de la IA es el proceso general de dirigir, gestionar y monitorear las actividades de IA en todos los procesos de negocio. Los líderes de datos deben trabajar con directores de riesgo, directores de cumplimiento y otras partes interesadas clave desde el inicio de un proyecto de IA para desarrollar un marco de gobernanza de IA. Este marco debe describir las mejores prácticas de la empresa para desarrollar, implementar y administrar modelos de IA y, en última instancia, eliminar la caja negra.
Haga el seguimiento de los modelos de principio a fin
La gobernanza de la IA establece medidas de protección en cada etapa del ciclo de vida de la IA y el ML, por ejemplo, en la recopilación de datos, la creación de modelos, la implementación, la administración y el monitoreo. Estas medidas de protección dan como resultado procesos más transparentes y brindan resultados explicables a las partes interesadas y clientes clave. Implementar la gobernanza de la IA de principio a fin le ayuda a gestionar mejor los riesgos y la reputación, adherirse a los principios éticos y protegerse y escalar frente a las normas gubernamentales.
Un importante minorista estadounidense recurrió a IBM para ayudar a abordar los problemas de equidad en las herramientas y los sistemas de contratación de personal que analizan a los postulantes. Era fundamental que este empleador integrara la equidad y la confianza, incluso la capacidad de identificar sesgos y explicar las decisiones, dentro del modelo de IA y ML que utiliza para la contratación de personal. La empresa utilizó IBM Cloud Pak for Data para gestionar constantemente los modelos habilitados por IA para lograr precisión y equidad. Ahora, la empresa controla y mitiga de forma proactiva los sesgos en sus procesos de contratación.
Muestre su trabajo
IBM también aplica este enfoque internamente. "Si una determinada normativa exige transparencia o explicabilidad, nos aseguramos de que el algoritmo o la evaluación de impacto muestre esos detalles, de modo que podamos hacer ajustes rápidos con el fin de cumplir de forma continua en torno a la nueva normativa, en lugar de afectar al negocio", afirma Eliuk.
A medida que la IA pasa de la experimentación a la crítica del negocio, las organizaciones están viendo la necesidad de implementar de manera proactiva la gobernanza de la IA para impulsar una IA transparente y explicable. La falta de medidas de protección en torno a la IA puede entorpecer los proyectos de IA y ralentizar la innovación.