Se ha desarrollado una nueva herramienta para detectar a los estudiantes que hacen trampa con ChatGPT. Tiene una eficacia del 99,9 %. Pero OpenAI no lo ha publicado porque está sumido en preocupaciones éticas.
Es solo un ejemplo de uno de los principales retos a los que se enfrenta la IA. ¿Cómo podemos monitorizar la tecnología para asegurarnos de que se utiliza de forma ética?
Durante los últimos años, los nombres más importantes de la IA han presionado para que su tecnología se utilice de forma responsable. Y usar la IA de forma ética no solo es lo correcto para las empresas, sino que también es algo que los consumidores quieren. De hecho, el 86 % de las empresas cree que los clientes prefieren compañías que aplican directrices éticas y que sean claras sobre cómo emplean sus datos y modelos de IA, según el Índice Global de Adopción de IA de IBM.
"Ya hemos dejado atrás la esperanza de que las empresas sean conscientes [del uso ético de la IA]", afirma Phaedra Boinodiris, líder global de IA fiable de IBM. "La pregunta más importante es: ¿por qué es importante que las empresas y otras organizaciones rindan cuentas de los resultados seguros y responsables de la IA que implementan?"
¿Pueden ayudar las herramientas de ética de la IA? ¿Las herramientas en sí mismas son parciales? Eche un vistazo rápido a las últimas investigaciones.
Boletín del sector
Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.
Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
Los intentos de fraude de Deepfake aumentaron un 3000 % entre 2022 y 2023, y cada vez son más elaborados. En febrero, un trabajador financiero de una empresa multinacional en Hong Kong fue engañado para que pagase 25 millones de dólares a criminales que crearon una videollamada con múltiples personajes deepfake, incluido el CFO de la firma.
En mayo, OpenAI anunció que había lanzado su propia herramienta de detección de deepfakes para investigadores de desinformación. La herramienta pudo detectar el 98,8 % de las imágenes creadas por DALL-E 3. OpenAI también se unió a Google, Adobe y otros en el Coalition for Content Provenance and Authenticity (C2PA), una coalición del sector que desarrolla un estándar para certificar la historia y fuente del contenido multimedia.
Hasta que ese estándar no se establezca, las empresas están construyendo herramientas que esperan puedan cubrir la carencia. En agosto, McAfee anunció su McAfee Deepfake Detector. La herramienta utiliza modelos de redes neuronales profundas para detectar audio falso de IA en vídeos que se reproducen en su navegador. En 2022, Intel presentó FakeCatcher, que analiza el flujo sanguíneo en píxeles de vídeo, separando a humanos de deepfakes con una tasa de precisión del 96 %. Y no están solos. Entre las startups más destacadas en este campo se encuentran Reality Defender de Nueva York, la startup israelí Clarity y Sentinel, con sede en Estonia, todas las cuales disponen de herramientas de escaneado que utilizan la IA para detectar patrones en diversos tipos de deepfakes.
Con la tecnología de detección de deepfakes evolucionando a un ritmo tan rápido, es importante tener en cuenta los posibles sesgos algorítmicos. El informático y experto en deepfake Siwei Lyu y su equipo en la Universidad de Buffalo han desarrollado lo que creen que son los primeros algoritmos de detección de deepfake diseñados para minimizar el sesgo. Los investigadores de la UB hicieron un collage de fotos de los cientos de rostros que fueron identificados como falsos en sus algoritmos de detección; los resultados mostraron un tono de piel más oscuro en general.
"Los deepfakes pueden utilizarse para atacar a grupos minoritarios infrarrepresentados, por lo que es importante asegurarse de que las tecnologías de detección no les desfavorezcan", afirma Lyu. ¿Y cuál es el futuro de la detección de deepfakes? "Sin duda, las tecnologías de IA generativa que subyacen a los deepfakes continuarán creciendo, por lo que vamos a ver cada vez más deepfakes en número, calidad y formas. Espero que las futuras tecnologías [de detección] estén equipadas con más barreras de seguridad para reducir las posibilidades de usos indebidos".
Los sistemas de reconocimiento facial se están volviendo cada vez más comunes como una forma conveniente de autenticar la identidad de un usuario, pero estos sistemas llevan mucho tiempo plagados de problemas éticos que van desde el sesgo racial hasta la privacidad de los datos. Para complicar el problema, "algunos sesgos son [también] interseccionales, agravando múltiples capas de prejuicios", señala Helen Edwards, cofundadora del grupo de expertos en ética de la IA Artificiality.
En mayo, la startup australiana de reconocimiento facial Outabox fue vulnerada y se filtraron los datos biométricos de más de un millón de usuarios. A principios de este año, 'GoldPickAxe', un troyano dirigido a dispositivos Android e iOS, fue sorprendido capturando datos faciales para acceder a cuentas bancarias.
Un enfoque prometedor para proteger los datos biométricos faciales es codificarlos de una manera que sea imperceptible para el ojo humano, pero que confunda los sistemas de reconocimiento. Una de las primeras herramientas para hacerlo fue Fawkes, un proyecto desarrollado en la Universidad de Chicago. El programa, que debe su nombre a la máscara de Guy Fawkes, está diseñado para ocultar fotografías alterando sutilmente los píxeles; se puede descargar gratis en el sitio web del proyecto.
Más recientemente, investigadores del USSLAB de la Universidad de Zhejiang han sido pioneros en CamPro, cuyo objetivo es lograr AFR a nivel del sensor de la cámara. CamPro produce imágenes que reducen la identificación facial al 0,3 % sin interferir con otras aplicaciones como el reconocimiento de actividad.
Detectar la escritura generada por IA sigue siendo un reto para empresas e instituciones educativas. En una prueba a ciegas en la Universidad de Reading, cinco módulos de psicología diferentes tenían exámenes escritos por ChatGPT mezclados con exámenes escritos por estudiantes reales. El estudio de junio descubrió que el 94 % de las respuestas del examen ChatGPT no fueron detectadas por las personas que calificaron los exámenes. Los exámenes generados por la IA también tuvieron un promedio de media nota más que los exámenes de los estudiantes.
Diversos detectores de escritura con IA han inundado el mercado para abordar este problema, buscando características comunes del texto generado por IA, como la repetición y la gramática perfecta. Pero los expertos advierten que aún no son fiables y a menudo muestran sesgos.
El año pasado, un estudio de Stanford reveló que los detectores de IA detectaban la escritura de los no nativos de inglés en un promedio del 61,3 % de las veces, pero cometían muchos menos errores al evaluar la escritura de hablantes nativos de inglés.
Que los humanos hagan pasar la escritura generada por IA como propia no solo es deshonesto, a veces también es plagio, lo que puede tener graves consecuencias legales. Debido a esta preocupación, algunas empresas están utilizando detectores de escritura por IA para comprobar la copia de sus escritores. Esto ha llevado a las empresas a acusar falsamente a los escritores de hacer pasar por suyas copias generadas por la IA, dañando la reputación y la carrera de los escritores.
Los conjuntos de datos suelen incluir los sesgos inconscientes de las personas que los crean. Es por eso que el sesgo algorítmico es un problema tan persistente en los LLM que entrenan con estos datos.
En un ejemplo, investigadores de Cornell utilizaron ChatGPT y Alpaca para generar cartas de recomendación tanto para hombres como para mujeres; las cartas mostraban sesgos significativos a favor de los hombres. El lenguaje generado como "Kelly es una persona cálida" frente a "Joseph es un modelo a seguir" demostró la forma en que estos sesgos podrían afectar a las mujeres en el lugar de trabajo.
Los investigadores están trabajando para encontrar formas de señalar y mitigar los sesgos. Un equipo de la Universidad de Illinois en Urbana-Champaign desarrolló QuaCer-B, que genera medidas de sesgo de LLM comprobables para las instrucciones muestreadas de determinadas distribuciones y se puede utilizar tanto en LLM de API como de código abierto.
"Actualmente, el sector de la IA se basa en evaluar la seguridad y fiabilidad de sus modelos probándolos en un pequeño conjunto de entradas de referencia", afirma el profesor de la UIUC Gagandeep Singh, uno de los investigadores principales detrás de QuaCer-B. "Sin embargo, la generación segura en entradas de referencia no garantiza que el contenido generado por LLM sea ético al manejar diversos escenarios invisibles en el mundo real. QuaCer-B permite a los desarrolladores de LLM tomar decisiones informadas sobre la idoneidad de sus modelos para la implementación en el mundo real y también identificar las causas de los fallos a la hora de mejorar el modelo.
A medida que la IA sigue evolucionando, nuevos problemas éticos seguirán surgiendo junto a ella. Y si bien las herramientas para detectar, monitorizar y prevenir el uso poco ético de la tecnología son un comienzo, los expertos en ética de la IA no las consideran una solución integral.
"Lo difícil es no comprar la herramienta adecuada", añade Boinodiris. “Curar la IA de forma responsable es un reto sociotécnico que requiere un enfoque holístico. Y la gente es la parte más difícil de la ecuación”.
“Además de una regulación y una aplicación rigurosas, la clave de una IA ética es la auditoría posterior a la comercialización, la monitorización continua del rendimiento y la minimización de los riesgos”, explica Gemma Galdón-Clavell, asesora de las Naciones Unidas y la UE sobre ética aplicada e IA responsable y fundadora de Eticas.ai. "Piense en la industria de la automoción: las luces de advertencia y los sensores de proximidad pueden ayudar a los conductores a evitar accidentes, pero aún necesitamos cinturones de seguridad, bolsas de aire e inspecciones periódicas para garantizar que la carretera abierta sea lo más segura posible".
Gobierne modelos de IA generativa desde cualquier lugar e impleméntelos en la nube o en las instalaciones con IBM watsonx.governance.
Vea cómo el gobierno de la IA puede ayudar a aumentar la confianza de sus empleados en la misma, acelerar la adopción y la innovación y mejorar la confianza de los clientes.
Prepárese para la Ley de IA de la UE y establezca un enfoque de gobierno de la IA responsable con la ayuda de IBM Consulting.