국방을 위한 책임감 있는 AI 원칙 운영

책상에 앉아 데스크탑 화면을 가리키며 무언가를 논의하는 동료들

인공 지능(AI)은 국가 안보의 성격을 포함하여 사회를 변화시키고 있습니다. 이를 인식한 미국 국방부(DoD)는 2019년 최고디지털인공지능실(CDAO)의 전신인 합동인공지능센터(JAIC)를 설립하여 경쟁력 있는 군사적 우위, 인간 중심의 AI 도입 여건, 국방부 운영의 민첩성을 구축하는 AI 솔루션을 개발하기 시작했습니다. 그러나 국방부에서 AI를 확장하고 채택하며 잠재력을 최대한 실현하는 데 걸림돌이 되는 장애물은 민간 부문과 비슷합니다.

최근 IBM의 설문조사에 따르면 성공적인 AI 배포를 방해하는 가장 큰 장벽은 제한된 AI 기술과 전문성, 데이터 복잡성, 윤리적 문제입니다. 또한, IBM 기업가치연구소(IBV)에 따르면 경영진의 79%가 전사적인 AI 접근 방식에 AI 윤리가 중요하다고 답했지만, AI 윤리에 대한 공통 원칙을 운영 중인 기업은 25% 미만에 불과했습니다. AI 모델의 아웃풋에 대한 신뢰를 얻는 것은 사회기술적 해결책을 필요로 하는 사회기술적 과제입니다.

AI의 책임 있는 선별을 운영하는 데 중점을 둔 국방 리더는 위험을 완화하는 기술 솔루션과 가드레일을 구현하기 전에 먼저 AI의 안전하고 책임감 있는 사용을 안내하는 공통 문화인 공유 어휘에 동의해야 합니다. 국방부는 AI 리터러시를 개선하고 신뢰할 수 있는 조직과 협력하여 전략적 목표와 가치에 부합하는 거버넌스를 개발함으로써 이를 달성하기 위한 견고한 기반을 마련할 수 있습니다.

보안을 위한 필수 요소인 AI 리터러시

직원들은 조직의 효율성을 개선하기 위해 AI를 배포하는 방법을 아는 것이 중요합니다. 그러나 AI의 위험과 한계를 깊이 이해하고 적절한 보안 조치와 윤리 보호 장치를 구현하는 방법을 이해하는 것도 마찬가지로 중요합니다. 이는 국방부나 정부 기관의 기본 원칙입니다.

맞춤형 AI 학습 경로를 통해 부족한 부분과 필요한 교육을 파악하여 직원이 특정 역할에 필요한 지식을 습득할 수 있습니다. 모든 직원이 허위 정보나 딥페이크와 같이 빠르게 확산되고 위험한 위협을 신속하게 평가, 설명, 대응하기 위해서는 기관 전반의 AI 리터러시가 필수적입니다.

IBM은 개인의 직책에 따라 필수적인 리터러시를 정의하는 방식이 다르기 때문에 조직 내에서 맞춤형 방식으로 AI 리터러시를 적용합니다.

전략적 목표 지원 및 가치에 부합

신뢰할 수 있는 인공 지능의 선두주자인 IBM은 고객 조직의 가치에 맞춰 책임감 있게 인공지능을 사용할 수 있도록 안내하는 거버넌스 프레임워크를 개발해 온 경험이 있습니다. IBM 또한 IBM 자체적으로 AI 사용에 대한 프레임워크를 마련하여 얼굴 인식 기술 사용과 같은 정책적 입장을 알리고 있습니다.

이제 AI 도구는 국가 보안과 데이터 유출사이버 공격으로부터 보호하는 데 활용되고 있습니다. 그러나 AI는 DoD의 다른 전략적 목표도 지원합니다. 인력을 보강하여 인력의 효율성을 높이고 재교육에 도움을 줄 수 있습니다. 이는 전투, 인도적 지원, 평화 유지 및 재난 구호 등의 역할을 하는 군인, 선원, 공군 및 해병대를 지원하기 위해 회복력 있는 공급망을 구축하는 데 도움이 될 수 있습니다.

CDAO는 책임감 있는 AI 툴킷의 일부로 책임감, 공평성, 추적 가능성, 신뢰성, 관리 가능성의 다섯 가지 윤리 원칙을 포함하고 있습니다. 미군의 기존 윤리 프레임워크에 기반한 이러한 원칙은 군의 가치에 기반을 두고 있으며 책임감 있는 AI에 대한 약속을 지키는 데 도움이 됩니다.

모델의 기능적 및 비기능적 요구 사항과 해당 모델에 대한 거버넌스 시스템을 고려하여 이러한 원칙을 현실화하기 위한 공동의 노력이 있어야 합니다. 아래에서는 CDAO의 윤리 원칙의 운영을 위한 광범위한 권장 사항을 제공합니다.

1. 책임감

 

"국방부 요원은 AI 기능의 개발, 배포 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울여야 합니다."

AI 모델을 신중하고 사려 깊은 인재가 개발해야 한다는 데는 누구나 동의하지만, 조직에서 이러한 업무를 수행할 인재를 어떻게 육성할 수 있을까요? 다음을 권장합니다.

  • AI 과제의 사회 기술적 특성을 인식하는 조직 문화를 조성합니다. 이것은 처음부터 전달되어야 하며, 성능을 모니터링하기 위해 모델과 그 관리에 투입해야 하는 관행, 기술 세트 및 사려 깊음에 대한 인식이 있어야 합니다.
  • 비즈니스(또는 임무) 목표, 데이터 준비 및 모델링, 평가 및 배포에 해당하는 AI 수명 주기 전반에 걸쳐 윤리 관행을 자세히 설명합니다.  여기서는 CRISP-DM 모델이 유용합니다. CRISP-DM의 확장인 IBM의 Scaled Data Science Method는 데이터 과학자, 산업-조직 심리학자, 디자이너, 커뮤니케이션 전문가 등의 협업적 의견을 바탕으로 AI 모델 라이프사이클 전반에 걸쳐 거버넌스를 제공합니다. 이 방법은 데이터 과학, 프로젝트 관리, 디자인 프레임워크 및 AI 거버넌스 모범 사례를 통합합니다. 팀은 문서, 대화 또는 협업이 필요한 대상, 다음 단계 등 라이프사이클의 각 단계에서 요구 사항을 쉽게 확인하고 이해할 수 있습니다.
  • 책임자, 성능 벤치마크(인간과 비교), 사용된 데이터 및 방법, 감사 기록(날짜 및 감사자), 감사 목적 및 결과를 명시하는 해석 가능한 AI 모델 메타데이터(예: 팩트시트)를 제공합니다.

참고: 이러한 책임의 척도는 AI 비전문가도 해석할 수 있어야 합니다('수학적인 설명' 없이).

2. 공평

 

"국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다."

AI 모델 사용이 차별이 아니라 공정해야 한다는 데 모두가 동의하지만, 실제로 어떻게 이런 일이 일어날 수 있을까요? 다음을 권장합니다.

  • 우수 센터를 설립하여 다양한 분야의 팀들이 서로 다른 잠재적 영향력을 파악할 수 있는 응용 훈련을 위한 커뮤니티를 제공합니다.
  • 감사 도구를 사용하여 모델에 나타난 편향을 반영합니다. 반영이 조직의 가치와 일치하는 경우, 선택한 데이터와 방법을 둘러싼 투명성이 핵심입니다. 반영이 조직의 가치와 일치하지 않는다면 이는 변화가 필요하다는 신호입니다. 편향으로 인한 잠재적 영향을 발견하고 완화하려면 모델이 학습된 데이터를 조사하는 것 이상의 작업이 필요합니다. 조직은 또한 관련된 사람과 프로세스를 검토해야 합니다. 예를 들어, 모델의 적절한 사용과 부적절한 사용이 명확하게 전달되었나요?
  • 다양한 서비스 수준에 대한 기능적 및 비기능적 요구 사항을 제공하여 공정성을 측정하고 형평성 표준을 실행 가능하게 만듭니다.
  • 디자인 사고 프레임워크를 사용하여 AI 모델의 의도하지 않은 영향을 평가하고, 최종 사용자의 권리를 결정하고, 원칙을 운영합니다. 디자인 사고 연습에는 다양한 삶의 경험을 가진 사람들이 참여해야 하며, 다양할수록 좋습니다.

3. 추적 가능

 

"국방부의 AI 능력은 관련 인력이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서화를 포함하여 AI 능력에 적용 가능한 기술, 개발 프로세스 및 운영 방법을 적절하게 이해할 수 있도록 개발 및 배포될 것입니다."

AI를 사용하는 모든 직원에게 명확한 지침을 제공하여 추적성을 운영합니다.

  • 사용자가 AI 시스템과 인터페이스할 때는 항상 사용자에게 명확하게 알려야 합니다.
  • AI 모델에 대한 콘텐츠 기반을 제공합니다. 도메인 전문가가 모델 학습에 사용되는 신뢰할 수 있는 데이터 소스를 큐레이션하고 유지 관리할 수 있도록 지원합니다. 모델 아웃풋은 훈련된 데이터를 기반으로 합니다.

IBM과 파트너는 고위험 사용 사례에 필수적인 포괄적이고 감사 가능한 콘텐츠 근거를 갖춘 AI 솔루션을 제공할 수 있습니다.

  • 주요 메타데이터를 캡처하여 AI 모델을 투명하게 렌더링하고 모델 인벤토리를 추적합니다. 이 메타데이터를 해석할 수 있고 적절한 정보가 적절한 담당자에게 노출되는지 확인하세요. 데이터 해석에는 연습이 필요하며 학제 간 노력이 필요합니다. IBM의 Design for AI 그룹은 직원들에게 AI에서 데이터의 중요한 역할(기타 기본 사항 포함)에 대한 교육을 제공하고, 오픈 소스 커뮤니티에 프레임워크를 기부하는 것을 목표로 합니다.
  • 이 메타데이터를 사람들이 쉽게 찾을 수 있도록 합니다(궁극적으로는 아웃풋 소스에서).
  • AI가 인간을 증강하고 지원해야 하므로 휴먼 인 더 루프를 포함합니다. 이를 통해 AI 시스템이 작동하는 동안 인간은 피드백을 제공할 수 있습니다.
  • 모델을 배포하거나 조달하기 훨씬 전에 서로 다른 영향과 안전 위험을 평가하는 프로세스와 프레임워크를 만듭니다. 이러한 위험을 완화할 책임자를 지정합니다.

4. 신뢰성

 

"국방부의 AI 능력은 명확하고 잘 정의된 용도로 사용될 것이며, 이러한 능력의 안전, 보안 및 효과는 전체 라이프사이클에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 될 것입니다."

조직에서는 명확하게 정의된 사용 사례를 문서화한 다음 규정 준수 여부를 테스트해야 합니다. 이 프로세스를 운영하고 확장하려면 실무자가 지속적인 직접적인 감독 없이도 최고 수준을 준수할 수 있도록 강력한 문화적 연계가 필요합니다. 모범 사례는 다음과 같습니다.

  • 공정하고 신뢰할 수 있는 아웃풋이 필수적인 이유를 지속적으로 재확인하는 커뮤니티를 구축합니다. 많은 실무자들은 단순히 최선의 의도를 갖는다면 이질적인 영향이 있을 수 없다고 진지하게 믿습니다. 이는 잘못된 생각입니다. 참여도가 높은 커뮤니티 리더가 사람들의 의견을 듣고 소속감을 느끼게 하는 응용 훈련이 중요합니다.
  • 모델 훈련에 사용되는 데이터에 대한 가이드라인과 표준을 중심으로 신뢰성 테스트의 근거를 구축합니다. 이를 현실화하는 가장 좋은 방법은 이러한 면밀한 조사가 부족할 때 어떤 일이 발생할 수 있는지 예를 제시하는 것입니다.
  • 모델 개발에 대한 사용자 액세스를 제한하되 프로젝트 시작 시 다양한 관점을 수집하여 편향 도입을 완화합니다.
  • 전체 AI 라이프사이클에 걸쳐 개인정보 보호 및 보안 검사를 수행합니다.
  • 정기적으로 예정된 감사에 정확성 측정을 포함합니다. 모델 성능이 인간과 어떻게 비교되는지 명확하게 솔직하게 설명하세요. 모델이 정확한 결과를 제공하지 못하는 경우 해당 모델에 대한 책임이 누구에게 있는지, 사용자가 어떤 수단을 사용할 수 있는지 자세히 설명하세요. (이 모든 것이 해석 가능하고 검색 가능한 메타데이터에 포함되어야 합니다.)

5. 거버넌스

 

"국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 갖추면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계하고 엔지니어링할 것입니다."

이 원칙을 운영하려면 다음이 필요합니다.

  • AI 모델 투자는 배포에서 끝나지 않습니다. 모델이 원하는 대로, 예상대로 계속 작동할 수 있도록 전용 리소스를 투입합니다. 배포 이후뿐만 아니라 AI 라이프사이클 전반에서 위험을 평가하고 완화합니다.
  • 거버넌스 작업을 수행할 자금을 위임받은 책임 당사자를 지정합니다. 책임 당사자는 그에 따른 권한을 가져야 합니다.
  • 커뮤니케이션, 커뮤니티 구축 및 교육에 투자합니다. watsonx.governance와 같은 도구를 활용하여 AI 시스템을 모니터링하세요.
  • 위에서 설명한 대로 AI 모델 재고를 캡처하고 관리합니다.
  • 모든 모델에 사이버 보안 조치를 배포합니다.

IBM은 신뢰할 수 있는 AI를 발전시키는 데 앞장서고 있습니다

IBM은 신뢰할 수 있는 AI 원칙을 발전시키는 데 앞장서 왔으며, AI 시스템의 초기부터 거버넌스 분야를 선도해 왔습니다. IBM은 AI의 역할이 인간의 전문 지식과 판단력을 대체하는 것이 아니라 보강하는 것임을 명확히 하는 신뢰와 투명성이라는 오랜 원칙을 따릅니다.

2013년에 IBM은 AI와 머신 러닝의 설명 가능성과 투명성을 위한 여정을 시작했습니다. IBM은 2015년에 AI 윤리 글로벌 리더를 임명하고 2018년에 AI 윤리 위원회를 설립하는 등 AI 윤리 분야를 선도하고 있습니다. 이러한 전문가들은 글로벌 비즈니스 참여에서 원칙과 약속이 지켜질 수 있도록 지원합니다. 2020년에 IBM은 공정하고 안전하며 신뢰할 수 있는 AI의 미래를 구축하기 위해 책임감 있는 AI 툴킷을 Linux 재단에 기부했습니다.

IBM은 책임감 있는 AI와 윤리적 AI 지표, 표준 및 모범 사례의 미래를 만들기 위한 글로벌 노력을 주도하고 있습니다.

  • AI 행정명령 개발에 대해 바이든 대통령 행정부와 협력
  • 책임감 있는 AI를 위한 70개 이상의 특허 공개/출원
  • IBM의 CEO인 Arvind Krishna는 세계경제포럼(WEF)이 발족한 글로벌 AI 행동 연합 운영 위원회의 공동 의장을 맡고 있습니다.
  • 얼라이언스는 전 세계적으로 포용적이고 투명하며 신뢰할 수 있는 인공 지능의 채택을 가속화하는 데 주력하고 있습니다.
  • 가치 창출과 안전한 시스템 및 기술 개발에 관한 생성형 AI에 대해 WEF에서 발표한 두 편의 논문을 공동 저술했습니다.
  • 신뢰할 수 있는 AI 위원회 Linux 재단 AI 공동 의장
  • NIST AI 위험 관리 프레임워크에 기여하고 AI 지표, 표준 및 테스트 분야에서 NIST와 협력합니다

책임감 있는 AI를 선별하는 것은 인간의 가치가 안정적이고 일관되게 기술에 반영되어야 하기 때문에 다방면의 도전 과제입니다. 그러나 노력할 가치가 충분히 있습니다. 위의 지침이 국방부가 신뢰할 수 있는 AI를 운영하고 임무를 완수하는 데 도움이 될 수 있다고 믿습니다.

IBM이 어떻게 도움을 줄 수 있는지 자세히 알아보려면 AI 거버넌스 컨설팅 | IBM을 방문하세요

추가 리소스:

작성자

Chuck Royal

Associate Partner | DTT

IBM Blog

Phaedra Boinodiris

Global Leader for Trustworthy AI

IBM Consulting

다음 단계 안내

AI 개발 라이프사이클 전반에 걸친 기능에 원스톱으로 액세스하세요. 사용자 친화적인 인터페이스, 워크플로, 업계 표준 API 및 SDK에 대한 액세스를 통해 강력한 AI 솔루션을 제작할 수 있습니다.

watsonx.ai 살펴보기 라이브 데모 예약