Equilibrar la IA: hacer el bien y evitar el daño

Reunión informal del equipo en la oficina con ventanas

Al crecer, mi padre siempre decía: “haz el bien”. Cuando era niño pensé que era gramática verguesa y lo corregiría, insistiendo en que debía ser “hacer bien”. Incluso mis hijos se burlan de mí cuando escuchan su consejo de "hacer el bien" y admito que lo dejé pasar en el frente de la gramática.

En el caso de la inteligencia artificial (IA) responsable, las organizaciones deben priorizar la capacidad de evitar daños como objetivo central. Algunas organizaciones también pueden tener como objetivo utilizar la IA para “hacer el bien”. Sin embargo, a veces la IA requiere barandillas claras antes de que uno pueda estar de acuerdo con “bueno”.

Lea el documento “Presidio IA infraestructura/marco” para aprender a abordar los riesgos de IA generativa con barandillas a lo largo del ciclo de vida ampliado de IA (enlace externo a ibm.com)

A medida que la IA generativa continúa generalizándose, las organizaciones se muestran entusiasmadas con el potencial de transformar procesos, reducir costos y aumentar el valor empresarial. Los líderes empresariales están ansiosos por rediseñar sus estrategias comerciales para servir mejor a los clientes, pacientes, empleados, socios o ciudadanos de manera más eficiente y mejorar la experiencia general. La IA generativa está abriendo puertas y creando nuevas oportunidades y riesgos para organizaciones de todo el mundo, y el liderazgo de recursos humanos (RR. HH.) desempeña un papel clave en la gestión de estos desafíos.

Adaptarse a las implicaciones de una mayor adopción de IA podría incluir el cumplimiento de requisitos regulatorios complejos como NIST, la Ley de IA de la UE, NYC 144, la EEOC de Estados Unidos y la Ley de IA de la Casa Blanca (todos los enlaces anteriores residen fuera de ibm.com), que impactan directamente en las políticas de recursos humanos y organizacionales, así como en los convenios laborales sociales, laborales y negociación colectiva. La adopción de una IA responsable requiere una estrategia de múltiples stakeholders, como afirman los principales recursos internacionales, incluidos el NIST, la OCDE, el Instituto de Inteligencia Artificial Responsable, la Data and Trust Alliance y el IEEE (todos los enlaces anteriores son externos a ibm.com).

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Esto no es solo una función de TI; los recursos humanos juegan un papel clave

Los líderes de recursos humanos ahora asesoran a las empresas sobre las habilidades requeridas para el trabajo de hoy, así como las habilidades futuras, considerando la IA y otras tecnologías. Según el WEF, los empleadores estiman que el 44 % de las habilidades de los trabajadores se verán afectadas en los próximos 5 años. Los profesionales de recursos humanos están explorando cada vez más su potencial para mejorar la productividad aumentando el trabajo de los empleados y empoderándolos para que se centren en trabajos de nivel superior. A medida que se amplían las capacidades de la IA, existen preocupaciones y cuestiones éticas que todo líder empresarial debe tener en cuenta para que el uso de la IA no se produzca a expensas de los trabajadores, socios o clientes.

Conozca los principios de confianza y transparencia recomendados por IBM para que las organizaciones integren de manera responsable la IA en sus operaciones.

La educación de los trabajadores y la gestión del conocimiento ahora están estrechamente coordinadas como una estrategia de múltiples stakeholders con operadores de TI, legales, de cumplimiento y de negocios como un proceso continuo, en lugar de una casilla de verificación anual. Como tal, los líderes de recursos humanos deben involucrarse de manera innata en el desarrollo de programas para crear políticas y aumentar la perspicacia de IA de los empleados, identificar dónde aplicar las capacidades de IA, establecer una estrategia de gobierno de IA responsable y usar herramientas como IA y automatización para ayudar a garantizar la consideración y el respeto por los empleados a través de una adopción de IA confiable y transparente.

AI Academy

Confianza, transparencia y gobernanza en IA

Es probable que la confianza en la IA sea el tema más importante en el campo de la IA. También es, comprensiblemente, un tema abrumador. Desentrañaremos cuestiones, como las alucinaciones, el sesgo y el riesgo, y compartiremos medidas para adoptar la IA de manera ética, responsable y justa.

Retos y soluciones para adoptar la ética de IA dentro de las organizaciones

Aunque la adopción y los casos de uso de la IA continúan expandiéndose, es posible que las organizaciones no estén completamente preparadas para las muchas consideraciones y consecuencias de adoptar capacidades de IA en sus procesos y sistemas. Si bien el 79 % de los ejecutivos encuestados enfatizan la importancia de la ética de la IA en su enfoque de IA en toda la empresa, menos del 25 % ha puesto en práctica principios comunes de ética de la IA, según una investigación del IBM Institute for Business Value.

Esta discrepancia existe porque las políticas por sí solas no pueden eliminar la prevalencia y el uso creciente de herramientas digitales. El uso creciente de dispositivos y aplicaciones inteligentes, como ChatGPT u otros modelos públicos de caja negra, sin la aprobación adecuada, se ha convertido en un problema persistente y no incluye la gestión de cambios para informar a los trabajadores sobre los riesgos asociados.

Por ejemplo, los trabajadores pueden usar estas herramientas para escribir correos electrónicos a los clientes utilizando datos confidenciales de los clientes o los gerentes pueden usarlas para escribir comentarios de rendimiento que divulgan datos personales de los empleados.

Para ayudar a reducir estos riesgos, puede ser útil integrar puntos focales de IA responsable dentro de cada departamento, unidad de negocio y nivel funcional. Este ejemplo puede ser una oportunidad para que RR. HH. impulse y defienda los esfuerzos para frustrar posibles desafíos éticos y riesgos operativos.

En última instancia, es imprescindible crear una estrategia de IA responsable con valores y principios comunes que estén alineados con los valores generales y la estrategia comercial de la empresa y que se comuniquen a todos los empleados. Esta estrategia debe abogar por los empleados e identificar oportunidades para que las organizaciones adopten la IA y la innovación que impulsen los objetivos del negocio. También debe ayudar a los empleados con la educación para prevenir efectos dañinos de la IA, abordar la desinformación y los sesgos, y promover una IA responsable, tanto interna como dentro de la sociedad.

Las 3 consideraciones principales para adoptar una IA responsable

Las tres principales consideraciones que los líderes empresariales y de RR. HH. deben tener en cuenta al desarrollar una estrategia de IA responsable son:

Convierta a las personas en el centro de su estrategia

Dicho de otra manera, priorice a su gente mientras traza su estrategia de tecnología avanzada. Esto significa identificar cómo funciona la IA con sus empleados, comunicar específicamente a esos empleados cómo la IA puede ayudarlos a sobresalir en sus funciones y redefinir las formas de trabajar. Sin educación, los empleados podrían estar demasiado preocupados por el despliegue de IA para reemplazarlos o desplegar para eliminar la fuerza laboral. Comuníquese directamente con los empleados con honestidad sobre cómo se construyen estos modelos. Los líderes de RR. HH. deben abordar los posibles cambios de trabajo, así como las realidades de las nuevas categories y trabajos creados por la IA y otras tecnologías.

Habilite una gobernanza que tenga en cuenta tanto las tecnologías adoptadas como la empresa.

La IA no es un monolito. Las organizaciones pueden desplegarla de muchas maneras, por lo que deben definir claramente qué significa para ellas la IA responsable, cómo planean usarla y cómo se abstendrán de emplearla. Principios como la transparencia, la confianza, la equidad, la equidad, la solidez y el uso de equipos diversos, en consonancia con las directrices de la OCDE o RAII, deben considerarse y diseñarse dentro de cada caso de uso de IA, ya sea que se trate de IA generativa o no. Además, se deben realizar comentarios de rutina para la desviación del modelo y las medidas de privacidad para cada modelo y métricas específicas de diversidad, equidad e inclusión para mitigar el sesgo.

Identificar y alinear las habilidades y herramientas adecuadas necesarias para el trabajo

La realidad es que algunos empleados ya están experimentando con herramientas de IA generativa para ayudarles a realizar tareas como responder preguntas, redactar correos electrónicos y realizar otras tareas rutinarias. Por lo tanto, las organizaciones deben actuar de inmediato para comunicar sus planes para usar estas herramientas, establecer expectativas para los empleados que las usan y ayudar a garantizar que el uso de estas herramientas se alinee con los valores y la ética de la organización. Además, las organizaciones deben ofrecer oportunidades de desarrollo de habilidades para ayudar a los empleados a mejorar sus conocimientos sobre IA y comprender las posibles trayectorias profesionales.

Descargue el documento “Desbloqueando el valor de la IA generativa” para obtener más orientación sobre cómo su organización puede adoptar la IA de manera responsable

Practicar e integrar la IA responsable en su organización es esencial para una adopción exitosa. IBM ha hecho de la IA responsable un elemento central de su enfoque de IA con clientes y socios. En 2018, IBM estableció el Consejo de Ética de IA como un organismo central e interdisciplinario para apoyar una cultura de IA ética, responsable y de IA confiable. Está compuesto por altos cargos de varios departamentos como investigación, unidades de negocio, recursos humanos, diversidad e inclusión, asuntos legales, asuntos gubernamentales y regulatorios, adquisiciones y comunicaciones. La junta dirige y hace cumplir las iniciativas y decisiones relacionadas con la IA. IBM se toma en serio los beneficios y desafíos de la IA, incorporando responsabilidad en todo lo que hacemos.

Le permitiré a mi padre esta regla gramatical incumplida. La IA puede “hacer el bien” cuando se gestiona correctamente, con la participación de muchos humanos, barreras de seguridad, supervisión, gobernanza y un marco ético de IA.

 

Autor

Jennifer Kirkwood

Executive

HR/Talent & Data, Partner, IBM Consulting

Soluciones relacionadas
IBM watsonx.governance

Gobierne modelos de IA generativa desde cualquier lugar y despliéguelos en la nube u on-premises con IBM watsonx.governance.

Descubra watsonx.governance
Soluciones de gobernanza de la IA

Vea cómo la gobernanza de la IA puede ayudar a aumentar la confianza de sus empleados en la IA, acelerar la adopción y la innovación y mejorar la confianza de los clientes.

Descubra las soluciones de gobernanza de la IA
Servicios de consultoría sobre gobernanza de la IA

Prepárese para la Ley de IA de la UE y establezca un enfoque de gobernanza para la IA responsable con la ayuda de IBM® Consulting.

Descubra los servicios de gobernanza de la IA
Dé el siguiente paso

Dirija, gestione y monitoree su IA con una única cartera para acelerar una IA responsable, transparente y explicable.

Explore watsonx.governance Agende una demostración en vivo