Poner en práctica los principios de IA responsable para defensa

Colegas sentados en un escritorio señalando la pantalla del escritorio discutiendo algo

La inteligencia artificial (IA) está transformando la sociedad, incluyendo el carácter mismo de la seguridad nacional. Reconociendo esto, el Departamento de Defensa (DoD) lanzó el Centro Conjunto de Inteligencia Artificial (JAIC) en 2019, el predecesor de la Oficina Principal de Inteligencia Digital y Artificial (CDAO), para desarrollar soluciones de IA que creen una ventaja militar competitiva, condiciones para humanos- la adopción centrada en la IA y la agilidad de las operaciones del DoD. Sin embargo, los obstáculos para escalar, adoptar y aprovechar todo el potencial de la IA en el DoD son similares a los del sector privado.

Una encuesta reciente de IBM encontró que las principales barreras que impiden el despliegue exitoso de IA incluyen habilidades y experiencia limitadas en IA, complejidad de datos y preocupaciones éticas. Además, según el IBM Institute of Business Value, el 79% de los ejecutivos dice que la ética de la IA es importante para su enfoque de IA en toda la empresa, pero menos del 25% ha puesto en práctica principios comunes de ética de la IA. Ganarse la confianza en los resultados de los modelos de IA es un desafío socio-técnico que requiere una solución socio-técnica.

Los líderes de defensa centrados en poner en práctica la curaduría responsable de la IA deben acordar primero un vocabulario compartido—una cultura común que guíe el uso seguro y responsable de la IA—antes de implementar soluciones tecnológicas y medidas de protección que mitiguen el riesgo. El DoD puede sentar una base sólida para lograr esto mejorando la alfabetización en IA y asociándose con organizaciones confiables para desarrollar una gobernanza alineada con sus objetivos y valores estratégicos.

La alfabetización en IA es imprescindible para la seguridad

Es importante que el personal sepa cómo desplegar la IA para mejorar la eficiencia de la organización. Pero es igualmente importante que tengan un conocimiento profundo de los riesgos y limitaciones de la IA y de cómo implementar las medidas de seguridad y las barreras éticas adecuadas. Estas son apuestas para el DoD o cualquier agencia de gobierno.

Una ruta de aprendizaje de IA personalizada puede ayudar a identificar las brechas y la capacitación necesaria para que el personal obtenga los conocimientos que necesita para sus funciones específicas. La alfabetización en IA en toda la institución es esencial para que todo el personal evalúe, describa y responda rápidamente a amenazas virales y peligrosas de rápido movimiento, como la desinformación y los deepfakes.

IBM aplica la alfabetización en IA de manera personalizada dentro de nuestra organización, ya que la definición de la alfabetización esencial varía según el puesto de una persona.

Apoyar los objetivos estratégicos y alinearse con los valores

Como líder en inteligencia artificial confiable, IBM tiene experiencia en el desarrollo de infraestructura que guía el uso responsable de la IA en consonancia con los valores de las organizaciones clientes. IBM también tiene sus propias infraestructuras para el uso de IA dentro de IBM, informando posiciones políticas como el uso de tecnología de reconocimiento facial.

Las herramientas de IA ahora se utilizan en la seguridad nacional y para ayudar a proteger contra filtraciones de datos y ataques cibernéticos. Pero la IA también respalda otros objetivos estratégicos del DoD. Puede aumentar la fuerza laboral, ayudar a que sean más efectivos y ayudarlos a volver a capacitarse. Puede ayudar a crear cadenas de suministro resilientes para apoyar a soldados, marineros, aviadores e infantes de marina en funciones de guerra, ayuda humanitaria, mantenimiento de la paz y socorro en casos de desastre.

El CDAO incluye cinco principios éticos de responsabilidad, equidad, trazabilidad, confiabilidad y gobernabilidad como parte de su kit de herramientas de IA responsable. Basados en la infraestructura existente de las fuerzas armadas de los Estados Unidos, estos principios se basan en los valores de las fuerzas armadas y ayudan a mantener su compromiso con la IA responsable.

Debe haber un esfuerzo concertado para hacer realidad estos principios mediante la consideración de los requisitos funcionales y no funcionales en los modelos y los sistemas de gobernanza en torno a esos modelos. A continuación, proporcionamos recomendaciones generales para la puesta en práctica de los principios éticos de la CDAO.

1. Responsable

 

"El personal del DoD ejercerá los niveles adecuados de juicio y cuidado, sin dejar de ser responsable del desarrollo, despliegue y uso de las capacidades de IA".

Todo el mundo está de acuerdo en que los modelos de IA deben ser desarrollados por personal cuidadoso y considerado, pero ¿cómo pueden las organizaciones capacitar a las personas para que hagan este trabajo? Recomendamos:

  • Fomentar una cultura organizacional que reconozca la naturaleza socio-técnica de los desafíos de la IA. Esto debe comunicarse desde el principio, y debe haber un reconocimiento de las prácticas, los conjuntos de habilidades y la consideración que deben ponerse en los modelos y su gestión para monitorear el rendimiento.
  • Detallar las prácticas éticas a lo largo del ciclo de vida de la IA, correspondientes a los objetivos comerciales (o misión), preparación de datos y modelado, evaluación y despliegue.  El modelo CRISP-DM es útil aquí. El Método de Ciencia de Datos a Escala de IBM, una extensión de CRISP-DM, ofrece gobernanza en todo el ciclo de vida de los modelos de IA informada por entrada colaborativa de científicos de datos, psicólogos industriales y organizacionales, diseñadores, especialistas en comunicación y otros. El método fusiona las mejores prácticas en ciencia de datos, gestión de proyectos, infraestructura y gobernanza de la IA. Los equipos pueden ver y comprender fácilmente los requisitos en cada etapa del ciclo de vida, incluyendo la documentación, con quién necesitan hablar o colaborar y los siguientes pasos.
  • Proporcionar metadatos del modelo de IA interpretables (por ejemplo, como hojas informativas) que especifiquen las personas responsables, los puntos de referencia de rendimiento (en comparación con humanos), los datos y métodos utilizados, los registros de auditoría (fecha y por quién) y el propósito y los resultados de la auditoría.

Nota: Estas medidas de responsabilidad deben ser interpretables por no expertos en IA (sin "explicaciones matemáticas").

2. Equitativo

 

“El Departamento tomará medidas deliberadas para minimizar el sesgo involuntario en las capacidades de IA”.

Todo el mundo está de acuerdo en que el uso de los modelos de IA debe ser justo y no discriminatorio, pero ¿cómo sucede esto en la práctica? Recomendamos:

  • Establecer un centro de excelencia para brindar a equipos diversos y multidisciplinarios una comunidad de capacitación aplicada para identificar posibles impactos dispares.
  • Usar herramientas de auditoría para reflejar el sesgo exhibido en los modelos. Si la reflexión se alinea con los valores de la organización, la transparencia en torno a los datos y métodos elegidos es clave. Si la reflexión no se alinea con los valores organizacionales, entonces esta es una señal de que algo debe cambiar. Descubrir y mitigar el posible impacto dispar causado por el sesgo implica mucho más que examinar los datos con los que se entrenó el modelo. Las organizaciones también deben examinar a las personas y los procesos involucrados. Por ejemplo, ¿se han comunicado claramente los usos apropiados e inapropiados del modelo?
  • Medir la equidad y hacer que los estándares de equidad sean procesables al proporcionar requisitos funcionales y no funcionales para diferentes niveles de servicio.
  • Utilizar infraestructuras de design thinking para evaluar los efectos no deseados de los modelos de IA, determinar los derechos de los usuarios finales y poner en práctica los principios. Es esencial que los ejercicios de design thinking incluyan personas con experiencias de vida muy variadas—cuanto más diversas, mejor.

3. Trazable

 

"Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluso con metodologías, fuentes de datos y procedimientos de diseño y documentación transparentes y auditables".

Ponga en marcha la trazabilidad proporcionando directrices claras a todo el personal que utilice IA:

  • Siempre aclare a los usuarios cuándo interactúan con un sistema de IA.
  • Proporcione una base de contenido para los modelos de IA. Capacite a los expertos en dominios para curar y mantener fuentes confiables de datos utilizados para entrenar modelos. El resultado del modelo se basa en los datos con los que se entrenó.

IBM y sus socios pueden proporcionar soluciones de IA con contenido integral y auditable imprescindible para casos de uso de alto riesgo.

  • Capture metadatos clave para hacer que los modelos de IA sean transparentes y realice un seguimiento del inventario de modelos. Asegúrese de que estos metadatos sean interpretables y de que la información correcta esté expuesta al personal adecuado. La interpretación de datos requiere práctica y es un esfuerzo interdisciplinario. En IBM, nuestro grupo de Diseño para IA tiene como objetivo educar a los empleados sobre el papel crítico de los datos en la IA (entre otros fundamentos) y dona infraestructuras a la comunidad de código abierto.
  • Haga que las personas puedan encontrar fácilmente estos metadatos (en última instancia, en la fuente de salida).
  • Incluya humanos en el ciclo, ya que la IA debería aumentar y ayudar a los humanos. Esto permite a los humanos proporcionar retroalimentación a medida que operan los sistemas de IA.
  • Cree procesos e infraestructuras para evaluar el impacto dispar y los riesgos de seguridad mucho antes de desplegar o adquirir el modelo. Designar personas responsables para mitigar estos riesgos.

4. Confiable

 

"Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de todo su ciclo de vida".

Las organizaciones deben documentar casos de uso bien definidos y luego probar el cumplimiento. Operar y escalar este proceso requiere una fuerte alineación cultural para que los profesionales se adhieran a los más altos estándares, incluso sin una supervisión directa constante. Las mejores prácticas incluyen:

  • Establecer comunidades que reafirmen constantemente por qué los resultados justos y confiables son esenciales. Muchos profesionales sinceramente creen que sólo con tener las mejores intenciones, no puede haber un impacto dispar. Esto es un error. La capacitación aplicada por parte líderes comunitarios altamente comprometidos que hacen que las personas se sientan escuchadas e incluidas es crítico.
  • Construir fundamentos de pruebas de confiabilidad en torno a las pautas y estándares para los datos utilizados en el entrenamiento de modelos. La mejor manera de hacerlo realidad es ofrecer ejemplos de lo que puede suceder cuando falta este escrutinio.
  • Limite el acceso de los usuarios al desarrollo del modelo, pero recopile diversas perspectivas al inicio de un proyecto para mitigar el sesgo de introducción.
  • Realice comprobaciones de privacidad y seguridad a lo largo de todo el ciclo de vida de la IA.
  • Incluya medidas de precisión en las auditorías programadas regularmente. Sea inequívocamente franco sobre cómo se compara el rendimiento del modelo con el de un ser humano. Si el modelo no proporciona un resultado preciso, detalle quién es responsable de ese modelo y qué recursos tienen los usuarios. (Todo esto debe integrarse en los metadatos interpretables y localizables).

5. Gobernable

 

"El Departamento proyectará y diseñará capacidades de IA para cumplir con sus funciones previstas, al tiempo que posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas desplegados que demuestren un comportamiento no deseado".

La puesta en práctica de este principio requiere:

  • La inversión en modelos de IA no se detiene en el despliegue. Dedique recursos para asegurar que los modelos continúen comportándose como se desea y se espera. Evalúe y mitigue el riesgo a lo largo del ciclo de vida de la IA, no solo después del despliegue.
  • Designar a una parte responsable que tenga un mandato financiado para hacer el trabajo de gobernanza. Deben tener poder.
  • Invertir en comunicación, desarrollo comunitario y educación. Aproveche herramientas como watsonx.governance para monitorear los sistemas de IA.
  • Capture y gestione el inventario de modelos de IA como se describe anteriormente.
  • Despliegue medidas de ciberseguridad en todos los modelos.

IBM está a la vanguardia del avance de la IA confiable

IBM ha estado a la vanguardia del avance de los principios de IA confiables y ha sido un líder de pensamiento en la gobernanza de los sistemas de IA desde su nacimiento. Seguimos principios bien arraigados de confianza y transparencia que dejan claro que el papel de la IA es aumentar, no reemplazar, la experiencia y el juicio humanos.

En 2013, IBM se embarcó en el camino de la explicabilidad y la transparencia en IA y machine learning. IBM es líder en ética de IA, nombró a un líder global de ética de IA en 2015 y creó una junta de ética de IA en 2018. Estos expertos trabajan para ayudar a garantizar que nuestros principios y compromisos se respeten en nuestros compromisos comerciales globales. En 2020, IBM donó sus kits de herramientas de IA responsable a la Fundación Linux para ayudar a construir el futuro de una IA justa, segura y confiable.

IBM lidera los esfuerzos globales para dar forma al futuro de la IA responsable y las métricas, estándares y mejores prácticas de IA ética:

  • Colaboración con la administración del Presidente Biden en el desarrollo de su Orden Ejecutiva de IA
  • Divulgación/presentación de más de 70 patentes para una IA responsable
  • El director ejecutivo (CEO) de IBM, Arvind Krishna, copreside el comité directivo de la Alianza de Acción Global de IA lanzado por el Foro Económico Mundial (WEF),
  • Alliance se centra en acelerar la adopción de inteligencia artificial inclusiva, transparente y confiable a nivel mundial
  • Es coautor de dos artículos publicados por el WEF sobre IA Generativa para desbloquear valor y desarrollar sistemas y tecnologías seguros.
  • Copresidente del comité de IA de confianza Linux Foundation AI
  • Contribuyó a la Infraestructura de Gestión de Riesgos de IA del NIST; interactuar con el NIST en el área de métricas, estándares y pruebas de IA

Curar la IA responsable es un desafío multifacético porque exige que los valores humanos se reflejen de manera confiable y consistente en nuestra tecnología. Pero bien vale la pena el esfuerzo. Creemos que las pautas anteriores pueden ayudar al DoD a poner en marcha una IA confiable y a cumplir su misión.

Para obtener más información sobre cómo IBM puede ayudar, visite Consultoría de Gobernanza de la IA | IBM

Más recursos:

Autor

Chuck Royal

Associate Partner | DTT

IBM Blog

Phaedra Boinodiris

Global Leader for Trustworthy AI

IBM Consulting

Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida del desarrollo de IA. Produzca potentes soluciones de IA con interfaces fáciles de usar, flujos de trabajo y acceso a API y SDK estándar de la industria.

Explore watsonx.ai Reserve una demostración en vivo