A inteligência artificial (IA) está transformando a sociedade, incluindo a própria segurança nacional. Reconhecendo isso, o Department of Defense (DoD) dos EUA lançou o Joint Artificial Intelligence Center (JAIC) em 2019, o antecessor do Chief Digital and Artificial Intelligence Office (CDAO), para desenvolver soluções de IA que criem vantagem militar competitiva, condições para a adoção da IA centrada no ser humano e a agilidade das operações do DoD. No entanto, os obstáculos para expandir, adotar e implementar todo o potencial da IA no DoD são semelhantes aos do setor privado.
Uma recente pesquisa da IBM descobriu que as principais barreiras que impedem a implementação bem-sucedida da IA incluem habilidades e conhecimentos limitados em IA, complexidade dos dados e preocupações éticas. Além disso, de acordo com o IBM Institute of Business Value, 79% dos executivos afirmam que a ética em IA é importante para a abordagem com relação à IA em toda a empresa, mas menos de 25% operacionalizaram princípios comuns de ética em IA. Ganhar confiança nas saídas dos modelos de IA é um desafio sociotécnico, que requer uma solução sociotécnica.
Os líderes de defesa focados em operacionalizar a seleção responsável da IA devem primeiro concordar com um vocabulário compartilhado (uma cultura comum que oriente o uso seguro e responsável da IA) antes de implementar soluções tecnológicas e proteções que mitiguem riscos. O DoD pode estabelecer uma base sólida para conseguir isso, melhorando o conhecimento em IA e estabelecendo parcerias com organizações confiáveis para desenvolver uma governança alinhada aos seus objetivos e valores estratégicos.
É importante que a equipe saiba como implementar a IA para melhorar a eficiência organizacional. Mas é igualmente importante que eles tenham uma compreensão profunda dos riscos e limitações da IA e como implementar as medidas de segurança e proteções éticas apropriadas. Essas são apostas básicas para o DoD ou qualquer agência governamental.
Um caminho de aprendizado de IA personalizado pode ajudar a identificar lacunas e o treinamento necessário para que os funcionários obtenham o conhecimento necessário para suas funções específicas. A conhecimento em IA em toda a instituição é essencial para todo o pessoal para que eles possam avaliar, descrever e responder rapidamente a ameaças rápidas, virais e perigosas, como desinformação e deepfakes.
A IBM aplica conhecimento em IA de maneira personalizada dentro de nossa organização, pois a definição de alfabetização essencial varia de acordo com o cargo de uma pessoa.
Como líder em inteligência artificial confiável, a IBM tem experiência no desenvolvimento de frameworks de governança que orientam o uso responsável da IA em alinhamento com os valores das organizações de clientes. A IBM também tem seus próprios frameworks para o uso de IA dentro da própria IBM, informando posições políticas como o uso da tecnologia de reconhecimento facial.
As ferramentas de IA agora são utilizadas na segurança nacional e para ajudar na proteção contra violações de dados e ataques cibernéticos. Mas a IA também apoia outros objetivos estratégicos do DoD. Ela pode aumentar a força de trabalho, ajudando a torná-la mais eficaz e a requalificá-la. Pode ajudar a criar cadeias de suprimentos resilientes para apoiar soldados, marinheiros, aviadores e fuzileiros navais em funções de combate, ajuda humanitária, manutenção da paz e ajuda em desastres.
O CDAO inclui cinco princípios éticos de responsável, equitativo, rastreável, confiável e governável como parte de seu toolkit de IA responsável. Com base no framework existente das forças armadas dos EUA, esses princípios baseiam-se nos valores das forças armadas e ajudam a manter seu compromisso com a IA responsável.
Deve haver um esforço conjunto para tornar esses princípios uma realidade, por meio da consideração dos requisitos funcionais e não funcionais nos modelos e nos sistemas de governança em torno desses modelos. Abaixo, fornecemos recomendações amplas para a operacionalização dos princípios éticos do CDAO.
"O pessoal do DoD exercerá níveis apropriados de julgamento e cuidado, enquanto permanecerá responsável pelo desenvolvimento, implementação e uso dos recursos de IA."
Todos concordam que os modelos de IA devem ser desenvolvidos por colaboradores cuidadosos e ponderados, mas como as organizações podem estimular as pessoas a realizar esse trabalho? Recomendamos:
Observação: essas medidas de responsabilidade devem ser interpretadas por não especialistas em IA (sem "explicação matemática").
“O Departamento tomará medidas deliberadas para minimizar o viés não intencional nos recursos de IA.”
Todos concordam que o uso de modelos de IA deve ser justo e não discriminatório, mas como isso acontece na prática? Recomendamos:
"Os recursos de IA do Departamento serão desenvolvidos e implementados de tal forma que o pessoal relevante possua uma compreensão adequada da tecnologia, dos processos de desenvolvimento e dos métodos operacionais aplicáveis aos recursos de IA, inclusive com metodologias transparentes e auditáveis, fontes de dados e procedimentos e documentação de projeto."
Operacionalize a rastreabilidade fornecendo diretrizes claras para todo o pessoal que usa IA:
A IBM e seus parceiros podem fornecer soluções de IA com conteúdo abrangente e auditável, fundamentando o imperativo em casos de uso de alto risco.
"Os recursos de IA do Departamento terão usos explícitos e bem definidos, e a segurança e a eficácia desses recursos estarão sujeitas a testes e garantias dentro desses usos definidos ao longo de todos os seus ciclos de vida."
As organizações devem documentar casos de uso bem definidos e testar a conformidade. A operacionalização e a escalabilidade desse processo exigem um forte alinhamento cultural para que os profissionais adiram aos mais altos padrões, mesmo sem supervisão direta constante. As melhores práticas incluem:
"O Departamento projetará e executará recursos de IA para cumprir as funções pretendidas, ao mesmo tempo em que possui a capacidade de detectar e evitar consequências não intencionais, e a capacidade de desconectar ou desativar sistemas implementados que demonstrem comportamentos não intencionais."
A operacionalização desse princípio exige:
A IBM está na vanguarda do avanço de princípios de IA confiável e é líder de pensamento na governança de sistemas de IA desde o seu nascimento. Seguimos princípios de confiança e transparência duradouros que deixam claro que o papel da IA é aumentar, e não substituir, o conhecimento e o julgamento humanos.
Em 2013, a IBM embarcou na jornada de explicabilidade e transparência em IA e aprendizado de máquina. A IBM é líder em ética de IA, nomeando um líder global de ética de IA em 2015 e criando um conselho de ética de IA em 2018. Esses especialistas trabalham para ajudar a garantir que nossos princípios e compromissos sejam mantidos em nossos engajamentos de negócios globais. Em 2020, a IBM doou seus toolkits de IA responsável para a Linux Foundation para ajudar a construir o futuro da IA justa, segura e confiável.
A IBM lidera os esforços globais para moldar o futuro da IA responsável e métricas, padrões e melhores práticas de IA ética:
A seleção de uma IA responsável é um desafio multifacetado, pois exige que os valores humanos se reflitam de forma confiável e consistente em nossa tecnologia. Mas vale a pena o esforço. Acreditamos que as diretrizes acima podem ajudar o DoD a operacionalizar uma IA confiável e a cumprir sua missão.
Para mais informações sobre como a IBM pode ajudar, acesse Consultoria em governança de IA | IBM
Mais recursos: