La inteligencia artificial (IA) está transformando la sociedad, incluyendo el carácter mismo de la seguridad nacional. Reconociendo esto, el Departamento de Defensa (DoD) lanzó el Centro Conjunto de Inteligencia Artificial (JAIC) en 2019, el predecesor de la Oficina Principal de Inteligencia Digital y Artificial (CDAO), para desarrollar soluciones de IA que creen una ventaja militar competitiva, condiciones para humanos- la adopción centrada en la IA y la agilidad de las operaciones del DoD. Sin embargo, los obstáculos para escalar, adoptar y aprovechar todo el potencial de la IA en el DoD son similares a los del sector privado.
Una encuesta reciente de IBM encontró que las principales barreras que impiden el despliegue exitoso de IA incluyen habilidades y experiencia limitadas en IA, complejidad de datos y preocupaciones éticas. Además, según el IBM Institute of Business Value, el 79% de los ejecutivos dice que la ética de la IA es importante para su enfoque de IA en toda la empresa, pero menos del 25% ha puesto en práctica principios comunes de ética de la IA. Ganarse la confianza en los resultados de los modelos de IA es un desafío socio-técnico que requiere una solución socio-técnica.
Los líderes de defensa centrados en poner en práctica la curaduría responsable de la IA deben acordar primero un vocabulario compartido—una cultura común que guíe el uso seguro y responsable de la IA—antes de implementar soluciones tecnológicas y medidas de protección que mitiguen el riesgo. El DoD puede sentar una base sólida para lograr esto mejorando la alfabetización en IA y asociándose con organizaciones confiables para desarrollar una gobernanza alineada con sus objetivos y valores estratégicos.
Es importante que el personal sepa cómo desplegar la IA para mejorar la eficiencia de la organización. Pero es igualmente importante que tengan un conocimiento profundo de los riesgos y limitaciones de la IA y de cómo implementar las medidas de seguridad y las barreras éticas adecuadas. Estas son apuestas para el DoD o cualquier agencia de gobierno.
Una ruta de aprendizaje de IA personalizada puede ayudar a identificar las brechas y la capacitación necesaria para que el personal obtenga los conocimientos que necesita para sus funciones específicas. La alfabetización en IA en toda la institución es esencial para que todo el personal evalúe, describa y responda rápidamente a amenazas virales y peligrosas de rápido movimiento, como la desinformación y los deepfakes.
IBM aplica la alfabetización en IA de manera personalizada dentro de nuestra organización, ya que la definición de la alfabetización esencial varía según el puesto de una persona.
Como líder en inteligencia artificial confiable, IBM tiene experiencia en el desarrollo de infraestructura que guía el uso responsable de la IA en consonancia con los valores de las organizaciones clientes. IBM también tiene sus propias infraestructuras para el uso de IA dentro de IBM, informando posiciones políticas como el uso de tecnología de reconocimiento facial.
Las herramientas de IA ahora se utilizan en la seguridad nacional y para ayudar a proteger contra filtraciones de datos y ataques cibernéticos. Pero la IA también respalda otros objetivos estratégicos del DoD. Puede aumentar la fuerza laboral, ayudar a que sean más efectivos y ayudarlos a volver a capacitarse. Puede ayudar a crear cadenas de suministro resilientes para apoyar a soldados, marineros, aviadores e infantes de marina en funciones de guerra, ayuda humanitaria, mantenimiento de la paz y socorro en casos de desastre.
El CDAO incluye cinco principios éticos de responsabilidad, equidad, trazabilidad, confiabilidad y gobernabilidad como parte de su kit de herramientas de IA responsable. Basados en la infraestructura existente de las fuerzas armadas de los Estados Unidos, estos principios se basan en los valores de las fuerzas armadas y ayudan a mantener su compromiso con la IA responsable.
Debe haber un esfuerzo concertado para hacer realidad estos principios mediante la consideración de los requisitos funcionales y no funcionales en los modelos y los sistemas de gobernanza en torno a esos modelos. A continuación, proporcionamos recomendaciones generales para la puesta en práctica de los principios éticos de la CDAO.
"El personal del DoD ejercerá los niveles adecuados de juicio y cuidado, sin dejar de ser responsable del desarrollo, despliegue y uso de las capacidades de IA".
Todo el mundo está de acuerdo en que los modelos de IA deben ser desarrollados por personal cuidadoso y considerado, pero ¿cómo pueden las organizaciones capacitar a las personas para que hagan este trabajo? Recomendamos:
Nota: Estas medidas de responsabilidad deben ser interpretables por no expertos en IA (sin "explicaciones matemáticas").
“El Departamento tomará medidas deliberadas para minimizar el sesgo involuntario en las capacidades de IA”.
Todo el mundo está de acuerdo en que el uso de los modelos de IA debe ser justo y no discriminatorio, pero ¿cómo sucede esto en la práctica? Recomendamos:
"Las capacidades de IA del Departamento se desarrollarán y desplegarán de manera que el personal pertinente posea una comprensión adecuada de la tecnología, los procesos de desarrollo y los métodos operativos aplicables a las capacidades de IA, incluso con metodologías, fuentes de datos y procedimientos de diseño y documentación transparentes y auditables".
Ponga en marcha la trazabilidad proporcionando directrices claras a todo el personal que utilice IA:
IBM y sus socios pueden proporcionar soluciones de IA con contenido integral y auditable imprescindible para casos de uso de alto riesgo.
"Las capacidades de IA del Departamento tendrán usos explícitos y bien definidos, y la seguridad y la eficacia de dichas capacidades estarán sujetas a pruebas y garantías dentro de esos usos definidos a lo largo de todo su ciclo de vida".
Las organizaciones deben documentar casos de uso bien definidos y luego probar el cumplimiento. Operar y escalar este proceso requiere una fuerte alineación cultural para que los profesionales se adhieran a los más altos estándares, incluso sin una supervisión directa constante. Las mejores prácticas incluyen:
"El Departamento proyectará y diseñará capacidades de IA para cumplir con sus funciones previstas, al tiempo que posee la capacidad de detectar y evitar consecuencias no deseadas, y la capacidad de desconectar o desactivar sistemas desplegados que demuestren un comportamiento no deseado".
La puesta en práctica de este principio requiere:
IBM ha estado a la vanguardia del avance de los principios de IA confiables y ha sido un líder de pensamiento en la gobernanza de los sistemas de IA desde su nacimiento. Seguimos principios bien arraigados de confianza y transparencia que dejan claro que el papel de la IA es aumentar, no reemplazar, la experiencia y el juicio humanos.
En 2013, IBM se embarcó en el camino de la explicabilidad y la transparencia en IA y machine learning. IBM es líder en ética de IA, nombró a un líder global de ética de IA en 2015 y creó una junta de ética de IA en 2018. Estos expertos trabajan para ayudar a garantizar que nuestros principios y compromisos se respeten en nuestros compromisos comerciales globales. En 2020, IBM donó sus kits de herramientas de IA responsable a la Fundación Linux para ayudar a construir el futuro de una IA justa, segura y confiable.
IBM lidera los esfuerzos globales para dar forma al futuro de la IA responsable y las métricas, estándares y mejores prácticas de IA ética:
Curar la IA responsable es un desafío multifacético porque exige que los valores humanos se reflejen de manera confiable y consistente en nuestra tecnología. Pero bien vale la pena el esfuerzo. Creemos que las pautas anteriores pueden ayudar al DoD a poner en marcha una IA confiable y a cumplir su misión.
Para obtener más información sobre cómo IBM puede ayudar, visite Consultoría de Gobernanza de la IA | IBM
Más recursos: