인공 지능(AI)은 국가 안보의 성격을 포함하여 사회를 변화시키고 있습니다. 이를 인식한 미국 국방부(DoD)는 2019년 최고디지털인공지능실(CDAO)의 전신인 합동인공지능센터(JAIC)를 설립하여 경쟁력 있는 군사적 우위, 인간 중심의 AI 도입 여건, 국방부 운영의 민첩성을 구축하는 AI 솔루션을 개발하기 시작했습니다. 그러나 국방부에서 AI를 확장하고 채택하며 잠재력을 최대한 실현하는 데 걸림돌이 되는 장애물은 민간 부문과 비슷합니다.
최근 IBM의 설문조사에 따르면 성공적인 AI 배포를 방해하는 가장 큰 장벽은 제한된 AI 기술과 전문성, 데이터 복잡성, 윤리적 문제입니다. 또한, IBM 기업가치연구소(IBV)에 따르면 경영진의 79%가 전사적인 AI 접근 방식에 AI 윤리가 중요하다고 답했지만, AI 윤리에 대한 공통 원칙을 운영 중인 기업은 25% 미만에 불과했습니다. AI 모델의 아웃풋에 대한 신뢰를 얻는 것은 사회기술적 해결책을 필요로 하는 사회기술적 과제입니다.
AI의 책임 있는 선별을 운영하는 데 중점을 둔 국방 리더는 위험을 완화하는 기술 솔루션과 가드레일을 구현하기 전에 먼저 AI의 안전하고 책임감 있는 사용을 안내하는 공통 문화인 공유 어휘에 동의해야 합니다. 국방부는 AI 리터러시를 개선하고 신뢰할 수 있는 조직과 협력하여 전략적 목표와 가치에 부합하는 거버넌스를 개발함으로써 이를 달성하기 위한 견고한 기반을 마련할 수 있습니다.
직원들은 조직의 효율성을 개선하기 위해 AI를 배포하는 방법을 아는 것이 중요합니다. 그러나 AI의 위험과 한계를 깊이 이해하고 적절한 보안 조치와 윤리 보호 장치를 구현하는 방법을 이해하는 것도 마찬가지로 중요합니다. 이는 국방부나 정부 기관의 기본 원칙입니다.
맞춤형 AI 학습 경로를 통해 부족한 부분과 필요한 교육을 파악하여 직원이 특정 역할에 필요한 지식을 습득할 수 있습니다. 모든 직원이 허위 정보나 딥페이크와 같이 빠르게 확산되고 위험한 위협을 신속하게 평가, 설명, 대응하기 위해서는 기관 전반의 AI 리터러시가 필수적입니다.
IBM은 개인의 직책에 따라 필수적인 리터러시를 정의하는 방식이 다르기 때문에 조직 내에서 맞춤형 방식으로 AI 리터러시를 적용합니다.
신뢰할 수 있는 인공 지능의 선두주자인 IBM은 고객 조직의 가치에 맞춰 책임감 있게 인공지능을 사용할 수 있도록 안내하는 거버넌스 프레임워크를 개발해 온 경험이 있습니다. IBM 또한 IBM 자체적으로 AI 사용에 대한 프레임워크를 마련하여 얼굴 인식 기술 사용과 같은 정책적 입장을 알리고 있습니다.
이제 AI 도구는 국가 보안과 데이터 유출 및 사이버 공격으로부터 보호하는 데 활용되고 있습니다. 그러나 AI는 DoD의 다른 전략적 목표도 지원합니다. 인력을 보강하여 인력의 효율성을 높이고 재교육에 도움을 줄 수 있습니다. 이는 전투, 인도적 지원, 평화 유지 및 재난 구호 등의 역할을 하는 군인, 선원, 공군 및 해병대를 지원하기 위해 회복력 있는 공급망을 구축하는 데 도움이 될 수 있습니다.
CDAO는 책임감 있는 AI 툴킷의 일부로 책임감, 공평성, 추적 가능성, 신뢰성, 관리 가능성의 다섯 가지 윤리 원칙을 포함하고 있습니다. 미군의 기존 윤리 프레임워크에 기반한 이러한 원칙은 군의 가치에 기반을 두고 있으며 책임감 있는 AI에 대한 약속을 지키는 데 도움이 됩니다.
모델의 기능적 및 비기능적 요구 사항과 해당 모델에 대한 거버넌스 시스템을 고려하여 이러한 원칙을 현실화하기 위한 공동의 노력이 있어야 합니다. 아래에서는 CDAO의 윤리 원칙의 운영을 위한 광범위한 권장 사항을 제공합니다.
"국방부 요원은 AI 기능의 개발, 배포 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울여야 합니다."
AI 모델을 신중하고 사려 깊은 인재가 개발해야 한다는 데는 누구나 동의하지만, 조직에서 이러한 업무를 수행할 인재를 어떻게 육성할 수 있을까요? 다음을 권장합니다.
참고: 이러한 책임의 척도는 AI 비전문가도 해석할 수 있어야 합니다('수학적인 설명' 없이).
"국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다."
AI 모델 사용이 차별이 아니라 공정해야 한다는 데 모두가 동의하지만, 실제로 어떻게 이런 일이 일어날 수 있을까요? 다음을 권장합니다.
"국방부의 AI 능력은 관련 인력이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서화를 포함하여 AI 능력에 적용 가능한 기술, 개발 프로세스 및 운영 방법을 적절하게 이해할 수 있도록 개발 및 배포될 것입니다."
AI를 사용하는 모든 직원에게 명확한 지침을 제공하여 추적성을 운영합니다.
IBM과 파트너는 고위험 사용 사례에 필수적인 포괄적이고 감사 가능한 콘텐츠 근거를 갖춘 AI 솔루션을 제공할 수 있습니다.
"국방부의 AI 능력은 명확하고 잘 정의된 용도로 사용될 것이며, 이러한 능력의 안전, 보안 및 효과는 전체 라이프사이클에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 될 것입니다."
조직에서는 명확하게 정의된 사용 사례를 문서화한 다음 규정 준수 여부를 테스트해야 합니다. 이 프로세스를 운영하고 확장하려면 실무자가 지속적인 직접적인 감독 없이도 최고 수준을 준수할 수 있도록 강력한 문화적 연계가 필요합니다. 모범 사례는 다음과 같습니다.
"국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 갖추면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계하고 엔지니어링할 것입니다."
이 원칙을 운영하려면 다음이 필요합니다.
IBM은 신뢰할 수 있는 AI 원칙을 발전시키는 데 앞장서 왔으며, AI 시스템의 초기부터 거버넌스 분야를 선도해 왔습니다. IBM은 AI의 역할이 인간의 전문 지식과 판단력을 대체하는 것이 아니라 보강하는 것임을 명확히 하는 신뢰와 투명성이라는 오랜 원칙을 따릅니다.
2013년에 IBM은 AI와 머신 러닝의 설명 가능성과 투명성을 위한 여정을 시작했습니다. IBM은 2015년에 AI 윤리 글로벌 리더를 임명하고 2018년에 AI 윤리 위원회를 설립하는 등 AI 윤리 분야를 선도하고 있습니다. 이러한 전문가들은 글로벌 비즈니스 참여에서 원칙과 약속이 지켜질 수 있도록 지원합니다. 2020년에 IBM은 공정하고 안전하며 신뢰할 수 있는 AI의 미래를 구축하기 위해 책임감 있는 AI 툴킷을 Linux 재단에 기부했습니다.
IBM은 책임감 있는 AI와 윤리적 AI 지표, 표준 및 모범 사례의 미래를 만들기 위한 글로벌 노력을 주도하고 있습니다.
책임감 있는 AI를 선별하는 것은 인간의 가치가 안정적이고 일관되게 기술에 반영되어야 하기 때문에 다방면의 도전 과제입니다. 그러나 노력할 가치가 충분히 있습니다. 위의 지침이 국방부가 신뢰할 수 있는 AI를 운영하고 임무를 완수하는 데 도움이 될 수 있다고 믿습니다.
IBM이 어떻게 도움을 줄 수 있는지 자세히 알아보려면 AI 거버넌스 컨설팅 | IBM을 방문하세요
추가 리소스: