DesPolíticas de uso de IA Generativa

By 08/01/2024

Miguel Valdivieso
Head of Talent & Transformation SPGI
IBM Consulting

Esta semana compartía un breve post sobre los datos de uso de herramientas IA en el puesto de trabajo (fundamentalmente ChatGPT) y si bien los datos son los razonables, no por ello no me generan una serie de reflexiones.

En primer lugar, destacaría un tema de adopción, aproximadamente un 43% de los profesionales (no siempre es evidente, pero por asegurarlo,) en posiciones whitecollar utilizan en alguna medida ChatGPT para cuestiones profesionales.

De ese 43%, la mitad de tu equipo prácticamente, un 70% lo hace con «nocturnidad y alevosía».. en otras palabras, la mitad de tu equipo lo está utilizando y por cada caso que conoces, hay al menos otro.

Personalmente, soy fan del impacto en la productividad de la IA generativa en según que tipo de tareas, deberían estar utilizándolo el 100% de tu equipo…pero es cierto que esta situación levanta una serie de riesgos que tanto como manager o profesional debes gestionar.

Si te preguntas cómo puede haber alguno con lo fantásticas que son… pues si, al menos estos;

Calidad y precisión de la información. La IA puede generar información que es inexacta o basada en datos desactualizados, lo que podría llevar a decisiones empresariales erróneas si no se verifica adecuadamente.

Protección de datos. La IA requiere acceso a grandes cantidades de datos, lo que plantea preocupaciones sobre la privacidad y la seguridad de la información, especialmente datos sensibles o confidenciales.

Responsabilidad & ética; Responsabilidad en caso de errores o problemas causados por la IA, las consecuencias son evidentes y dependen en alto grado del primer punto…. pero bueno..

Seguridad; Como cualquier herramienta, las IA están sujetas a riesgos de seguridad que a menudo no consideramos; desde vulnerabilidad a la manipulación como la exposición de datos sensibles

Todo esto nos lleva a empezar a acelerar en el diseño de Políticas de Uso de IA en el puesto de trabajo

Sobre todo, antes de que prohiban… (un 75% de las organizaciones están considerando prohibir el acceso a ChatGTP y otras apps de IA Gen)

Si no las tienes (si estas entre el aproximadamente el 90% de las organizaciones) esta aproximación es mía. Te quería compartir un borrador de políticas de uso sobre el cual puedas empezar a trabajar;

Estrategia de IAG en la empresa

En primer lugar, constituye ya un grupo de trabajo de IA en la organización, un mix de negocio, areas de soporte y tecnología que pilote las conversaciones sobre como, donde y para que usarlo. Te listo una serie de puntos en los que deberían trabajar;

  1. Objetivos Claros:.- Identificar y documentar las metas específicas de la IA en cada departamento y cómo se alinean con la estrategia general de la empresa..- Establecer KPIs para medir el éxito de la IA en alcanzar estos objetivos y su contribución al rendimiento general del negocio..- Detallar cómo la IA apoyará o mejorará los procesos de decisión existentes y cómo se espera que agilice las operaciones..- Prever posibles desarrollos futuros de la IA y cómo estos podrían integrarse en la estrategia a largo plazo de la empresa.
  2. Transparencia:.- Describir el algoritmo de IA, sus capacidades y limitaciones para que los empleados comprendan cómo influye en su trabajo..- Proporcionar ejemplos de cómo la IA ha llegado a ciertas decisiones para demostrar su razonamiento y justificar su implementación..- Informar a los empleados sobre los cambios en los procesos de trabajo debido a la implementación de la IA..- Documentar y hacer accesible el registro de cambios y actualizaciones de los sistemas de IA para mantener informados a todos los stakeholders.
  3. Privacidad y Protección de Datos:.- Enumerar los tipos de datos que se recopilarán, el propósito de su uso y cómo se protegerán los datos personales de los empleados..- Desarrollar políticas de consentimiento para el uso de datos personales, respetando la legislación local e internacional sobre privacidad..- Definir la duración del almacenamiento de datos y los procesos de eliminación de datos obsoletos o innecesarios..- Asegurar auditorías de privacidad periódicas para verificar el cumplimiento de la política y mantener la confianza de los empleados.
  4. Control Humano:.- Definir procedimientos para la supervisión humana, incluyendo puntos de control y autoridad para intervenir en decisiones automatizadas..- Capacitar al personal sobre cómo y cuándo tomar el control de las decisiones automatizadas para garantizar que la IA no reemplace el juicio humano esencial..- Establecer límites en la autonomía de la IA, con criterios claros para cuando sea necesario el juicio humano..- Desarrollar un protocolo de «intervención humana» que permita a los empleados rectificar o anular decisiones de la IA.
  5. Equidad y No Discriminación:.- Realizar auditorías regulares para detectar y corregir sesgos en los algoritmos y promover prácticas que garanticen la equidad en la selección y evaluación del personal..- Establecer comités de ética para supervisar la imparcialidad y el uso justo de la IA en el trabajo..- Incluir formación sobre diversidad e inclusión en el diseño y desarrollo de algoritmos de IA..- Revisar periódicamente las métricas de resultados para asegurarse de que la IA no produce resultados sesgados.
  6. Desarrollo y Capacitación:.- Crear programas de capacitación en habilidades digitales y de IA, y fomentar la certificación continua en competencias relacionadas con la IA..- Ofrecer oportunidades para que los empleados participen en la co-creación o personalización de soluciones de IA..- Proporcionar recursos para autoaprendizaje y experimentación con IA en un entorno controlado.
  7. Seguridad y Fiabilidad:.- Implementar protocolos de seguridad cibernética para los sistemas de IA y desarrollar un plan de contingencia para fallos técnicos..- Establecer un equipo dedicado al monitoreo de la seguridad de la IA..- Realizar pruebas de penetración y otras evaluaciones de seguridad en sistemas de IA.
  8. Evaluación del Impacto:.- Realizar evaluaciones de impacto anuales con la participación de stakeholders para medir el impacto social y ético de la IA..- Considerar el efecto de la IA en el bienestar y la satisfacción laboral de los empleados..- Analizar cómo la IA puede cambiar el equilibrio entre el trabajo y la vida personal de los empleados.
  9. Derechos Laborales:.- Redactar cláusulas que limiten el uso de la IA en la supervisión y evaluación del rendimiento, y asegurar que existan procesos de apelación para decisiones automatizadas..- Garantizar que la IA no se utilice para reemplazar indiscriminadamente puestos de trabajo sin una estrategia de transición y reubicación..- Crear un marco para la participación de los empleados en la toma de decisiones sobre la implementación de la IA.
  10. Responsabilidad y Recurso:.- Definir claramente las responsabilidades legales y morales en el uso de la IA y establecer un focal point de IA para atender las preocupaciones y disputas..- Identificar y abordar las implicaciones éticas de las decisiones tomadas con el apoyo de la IA..- Crear un registro de decisiones de IA para rastrear y revisar las acciones tomadas.
  11. Actualización y Mantenimiento:.- Planificar actualizaciones regulares del software y hardware de IA y monitorizar el cumplimiento de la IA con las leyes y regulaciones vigentes..- Incluir a los usuarios finales en el proceso de prueba y feedback de las nuevas versiones de IA..- Evaluar regularmente la alineación de las soluciones de IA con los objetivos estratégicos y operativos de la empresa.
  12. Comunicación y Feedback:.- Organizar sesiones de feedback periódicas con los empleados y desarrollar una política de puertas abiertas para discusiones sobre la IA y su impacto en el lugar de trabajo..- Implementar un dashboard de métricas de IA para que los empleados puedan ver en tiempo real el desempeño y los efectos de la IA..- Establecer un sistema de reporte anónimo para inquietudes sobre la IA.

A partir de una posición clara en al menos unos cuantos de estos puntos…. elabora una política de uso interno dirigida al profesional, aquí te dejo una propuesta..

Política de Uso de IAG para Profesionales

Introducción: Esta política está diseñada para orientar a los empleados en el uso responsable y efectivo de los sistemas de Inteligencia Artificial (IA) en sus actividades laborales diarias.

Uso Aceptable:

  • Utilización de Herramientas de IA: Emplear las herramientas de IA proporcionadas únicamente para tareas relacionadas con el trabajo y buscar mejorar la eficiencia y calidad del trabajo realizado.
  • Mejora de Competencias: Aprovechar las oportunidades de capacitación para mejorar la comprensión y las habilidades necesarias para interactuar con la IA de manera efectiva.

Uso No Aceptable:

  • Manipulación de Datos: Está prohibido alterar o manipular los datos utilizados por los sistemas de IA para obtener resultados sesgados o injustos.

Seguridad y Privacidad:

  • Protección de Datos: Mantener la confidencialidad de los datos de la empresa y de los clientes al interactuar con sistemas de IA.
  • Reporte de Incidentes: Notificar inmediatamente cualquier brecha de seguridad o sospecha de mal uso de datos a los responsables de seguridad de la información.

Interacción con IA:

  • Supervisión Humana: Asegurarse de que las decisiones importantes sean revisadas y, si es necesario, corregidas por personal calificado.
  • Feedback Constructivo: Proporcionar retroalimentación regular sobre la funcionalidad y eficacia de las herramientas de IA para mejorar su precisión y utilidad.

Derechos y Responsabilidades:

  • Derecho a la Explicación: Los empleados tienen derecho a solicitar una explicación de las decisiones tomadas por sistemas de IA que les afecten directamente.
  • Responsabilidad Personal: Cada empleado es responsable del uso ético y profesional de la IA en el trabajo.

Cumplimiento y Actualizaciones:

  • Actualización de Conocimientos: Mantenerse actualizado con respecto a las nuevas políticas y procedimientos relacionados con el uso de la IA.

Recurso y Apoyo:

  • Asistencia Técnica: Buscar ayuda a través de los canales adecuados cuando se encuentren dificultades técnicas con las herramientas de IA.
  • Consulta de Ética: En caso de preocupaciones éticas relacionadas con la IA, comunicarse con el focal point de IA de la organización.

Espero que como punto de partida, puedan serte de utilidad, de ser así, te agradezco si puedes ampliarla en los comentarios con aquellos puntos que sean de utilidad para tu organización para poder ir completándola.

[autopilot_shortcode]