AI 위험 관리는 AI 기술과 관련된 잠재적 위험을 체계적으로 식별, 완화 및 해결하는 프로세스입니다. 여기에는 도구, 관행 및 원칙의 조합이 포함되며, 특히 공식적인 AI 위험 관리 프레임워크를 배포하는 데 중점을 둡니다.
일반적으로 AI 위험 관리의 목표는 AI의 잠재적인 부정적인 영향을 최소화하면서 이점을 극대화하는 것입니다.
AI 위험 관리는 AI 거버넌스의 광범위한 분야의 일부입니다. AI 거버넌스는 AI 도구와 시스템이 안전하고 윤리적이며 그 상태를 유지하도록 보장하는 가드레일의 역할을 합니다.
AI 거버넌스는 포괄적인 분야인 반면, AI 위험 관리는 해당 분야 내의 프로세스입니다. AI 위험 관리는 AI 시스템을 위험으로부터 안전하게 보호하기 위해 취약성과 위협을 식별하고 해결하는 데 특히 중점을 둡니다. AI 거버넌스는 안전, 공정성 및 인권 존중을 보장하기 위해 AI 연구, 개발 및 애플리케이션을 지시하는 프레임워크, 규칙 및 표준을 수립합니다.
최근 몇 년 동안 산업 전반에 걸쳐 AI 시스템의 사용이 급증하고 있습니다. McKinsey 보고서(ibm.com 외부 링크)에 따르면 현재 72%의 조직이 어떤 형태로든 인공 지능(AI)을 사용하고 있으며, 이는 2023년에 비해 17% 증가한 수치입니다.
조직이 혁신, 효율성, 생산성 향상과 같은 AI의 이점을 추구하고 있지만 개인정보 보호 문제, 보안 위협, 윤리 및 법적 문제와 같은 잠재적 위험을 항상 해결하지는 못합니다.
리더들은 이러한 과제를 잘 알고 있습니다. IBM 기업가치연구소(IBM IBV)의 최근 연구(ibm.com 외부 링크)에 따르면 리더의 96%가 생성형 AI를 도입하면 보안 침해 가능성이 높아진다고 생각하는 것으로 나타났습니다. 동시에 IBM IBV는 현재 생성형 AI 프로젝트의 24%만이 보안을 확보하고 있다는 사실도 발견했습니다.
AI 위험 관리는 이러한 격차를 해소하고 조직이 AI 윤리나 보안을 훼손하지 않으면서도 AI 시스템의 잠재력을 최대한 활용할 수 있도록 지원합니다.
AI 시스템은 변조, 침해, 편향 또는 사이버 공격에 취약할 수 있는 데이터 세트에 의존합니다. 조직은 개발에서 교육 및 배포에 이르기까지 전체 AI 라이프사이클에 걸쳐 데이터 무결성, 보안 및 가용성을 보호하여 이러한 위험을 완화할 수 있습니다.
일반적인 데이터 위험은 다음과 같습니다.
위협 행위자는 도난, 리버스 엔지니어링 또는 무단 조작을 위해 AI 모델을 표적으로 삼을 수 있습니다. 공격자는 AI 모델의 동작과 성능을 결정하는 핵심 구성 요소인 아키텍처, 가중치 또는 매개변수를 변조하여 모델의 무결성을 손상시킬 수 있습니다.
가장 일반적인 모델 위험은 다음과 같습니다.
AI 모델은 마법처럼 보일 수 있지만, 근본적으로 정교한 코드와 머신 러닝 알고리즘의 산물입니다. 모든 기술과 마찬가지로 이 기술도 운영상의 위험에 취약합니다. 이러한 위험을 해결하지 않고 방치하면 위협 행위자가 악용할 수 있는 시스템 장애 및 보안 취약점으로 이어질 수 있습니다.
가장 일반적인 운영 위험은 다음과 같습니다.
조직이 AI 시스템을 개발하고 배포할 때 안전과 윤리를 우선시하지 않으면 개인정보 침해를 저지르고 편향된 결과를 초래할 위험이 있습니다. 예를 들어, 채용 결정에 사용되는 편향된 학습 데이터는 성별 또는 인종에 대한 고정 관념을 강화하고 특정 인구 통계 그룹을 다른 그룹보다 선호하는 AI 모델을 만들 수 있습니다.
일반적인 윤리적 및 법적 위험은 다음과 같습니다.
많은 조직이 전체 AI 라이프사이클에 걸쳐 위험을 관리하기 위한 일련의 지침과 관행인 AI 위험 관리 프레임워크를 채택하여 AI 위험을 해결합니다.
또한 이러한 가이드라인은 조직의 AI 사용에 관한 정책, 절차, 역할 및 책임을 설명하는 플레이북으로 생각할 수도 있습니다. AI 위험 관리 프레임워크는 조직이 위험을 최소화하고 윤리 기준을 유지하며 지속적인 규정 준수를 달성하는 방식으로 AI 시스템을 개발, 배포 및 유지 관리할 수 있도록 지원합니다.
가장 일반적으로 사용되는 AI 위험 관리 프레임워크는 다음과 같습니다.
2023년 1월, 미국 국립표준기술원(NIST)은 AI 위험 관리에 대한 체계적인 접근 방식을 제공하기 위해 AI 위험 관리 프레임워크(AI RMF)(ibm.com 외부 링크)를 발표했습니다. 이후 NIST AI RMF는 AI 위험 관리의 벤치마크가 되었습니다.
AI RMF의 주요 목표는 조직이 위험을 효과적으로 관리하고 신뢰할 수 있고 책임감 있는 AI 관행을 장려하는 방식으로 AI 시스템을 설계, 개발, 배포 및 사용하도록 지원하는 것입니다.
공공 및 민간 부문과 협력하여 개발된 AI RMF는 전적으로 자발적이며 모든 회사, 산업 또는 지역에 적용할 수 있습니다.
프레임워크는 두 부분으로 나뉩니다. 1부에서는 신뢰할 수 있는 AI 시스템의 위험과 특징에 대해 간략하게 설명합니다. 2부, 'AI RMF 코어'에서는 조직이 AI 시스템 위험을 해결하는 데 도움이 되는 네 가지 기능을 간략하게 설명합니다.
EU 인공 지능법(EU AI Act)은 유럽연합(EU)에서 인공 지능의 개발 및 사용을 규제하는 법률입니다. 이 법은 규제에 대한 위험 기반 접근 방식을 취하여 인간의 건강, 안전 및 권리에 대한 위협에 따라 AI 시스템에 다른 규칙을 적용합니다. 또한 이 법안은 ChatGPT와 Google Gemini를 구동하는 파운데이션 모델과 같은 범용 인공지능 모델을 설계, 훈련 및 배포하기 위한 규칙을 제정합니다.
국제 표준화 기구(ISO)와 국제 전기기술 위원회(IEC)는 AI 위험 관리의 다양한 측면을 다루는 표준(ibm.com 외부 링크)을 개발했습니다.
ISO/IEC 표준은 AI 위험 관리에서 투명성, 책임성 및 윤리적 고려 사항의 중요성을 강조합니다. 또한 설계 및 개발부터 배포 및 운영에 이르기까지 AI 라이프사이클 전반에 걸쳐 AI 위험을 관리하기 위한 실행 가능한 지침을 제공합니다.
2023년 말, 바이든 행정부는 AI 안전과 보안을 보장하기 위한 행정 명령(ibm.com 외부 링크)을 발표했습니다. 엄밀히 말하면 위험 관리 프레임워크는 아니지만, 이 포괄적인 지침은 AI 기술의 위험을 관리하기 위한 새로운 표준을 수립하기 위한 지침을 제공합니다.
이 행정 명령은 투명하고 설명 가능하며 책임감 있고 신뢰할 수 있는 AI의 촉진을 포함하여 몇 가지 주요 우려 사항을 강조합니다. 이번 행정명령은 여러 면에서 민간 부문에 선례를 남기는 데 도움이 되었으며, 포괄적인 AI 위험 관리 관행의 중요성을 시사했습니다.
AI 위험 관리 프로세스는 조직마다 다를 수밖에 없지만, AI 위험 관리 관행을 성공적으로 구현하면 몇 가지 공통적인 핵심 이점을 얻을 수 있습니다.
AI 위험 관리는 조직의 사이버 보안 태세와 AI 보안 사용을 강화할 수 있습니다.
조직은 정기적인 위험 평가 및 감사를 수행하여 AI 라이프사이클 전반에 걸쳐 잠재적 위험과 취약성을 식별할 수 있습니다.
이러한 평가를 통해 파악된 위험을 줄이거나 제거하기 위한 완화 전략을 구현할 수 있습니다. 이 프로세스에는 데이터 보안을 강화하고 모델 견고성을 개선하는 등의 기술적 조치가 포함될 수 있습니다. 이 프로세스에는 윤리적 지침 개발 및 액세스 제어 강화와 같은 조직적 조정도 포함될 수 있습니다.
위협 탐지 및 대응에 대한 이러한 사전 예방적 접근 방식을 취하면 조직은 위험이 확대되기 전에 위험을 완화하여 데이터 유출 가능성과 사이버 공격의 잠재적 영향을 줄일 수 있습니다.
AI 위험 관리는 또한 조직의 전반적인 의사 결정을 개선하는 데 도움이 될 수 있습니다.
조직은 통계적 방법과 전문가 의견을 포함한 정성적 및 정량적 분석을 혼합하여 잠재적 위험을 명확하게 이해할 수 있습니다. 이러한 전체 그림 보기는 조직이 고위험 위협의 우선순위를 정하고 AI 배포와 관련하여 더 많은 정보에 입각한 의사 결정을 내림으로써 혁신에 대한 열망과 위험 완화의 필요성 사이에서 균형을 맞추는 데 도움이 됩니다.
전 세계적으로 민감한 데이터 보호에 대한 관심이 높아짐에 따라 일반 데이터 보호 규정(GDPR), California Consumer Privacy Act(CCPA), EU AI 법을 비롯한 주요 규제 요구 사항 및 산업 표준이 제정되었습니다.
이러한 법률을 준수하지 않을 경우 막대한 벌금과 상당한 법적 처벌을 받을 수 있습니다. AI 위험 관리는 특히 AI를 둘러싼 규정이 기술 자체만큼이나 빠르게 진화하는 상황에서 조직이 규정을 준수하고 양호한 상태를 유지하는 데 도움이 될 수 있습니다.
AI 위험 관리는 조직이 AI 시스템으로 잠재적인 위험을 실시간으로 해결함으로써 업무 중단을 최소화하고 비즈니스 연속성을 보장할 수 있도록 지원합니다. AI 위험 관리는 또한 조직이 AI 사용에 대한 명확한 관리 관행과 방법론을 수립할 수 있도록 함으로써 책임감을 높이고 장기적인 지속가능성을 강화할 수 있습니다.
AI 위험 관리는 신뢰와 투명성을 우선시하여 AI 시스템에 대한 보다 윤리적인 접근 방식을 장려합니다.
대부분의 AI 위험 관리 프로세스에는 경영진, AI 개발자, 데이터 과학자, 사용자, 정책 입안자, 심지어 윤리 전문가를 포함한 다양한 이해관계자가 참여합니다. 이러한 포괄적인 접근 방식은 모든 이해관계자를 염두에 두고 AI 시스템을 책임감 있게 개발하고 사용할 수 있도록 도와줍니다.
조직은 정기적인 테스트와 모니터링 프로세스를 수행함으로써 AI 시스템의 성능을 더 잘 추적하고 새로운 위협을 더 빨리 탐지할 수 있습니다. 이러한 모니터링을 통해 조직은 지속적인 규정 준수를 유지하고 AI 위험을 조기에 해결하여 위협의 잠재적 영향을 줄일 수 있습니다.
업무 수행 방식을 간소화하고 최적화할 수 있는 모든 잠재력에도 불구하고 AI 기술에 위험이 없는 것은 아닙니다. 엔터프라이즈 IT의 거의 모든 부분은 잘못된 사람의 손에 들어가면 흉기가 될 수 있습니다.
조직은 생성형 AI를 피할 필요가 없습니다. 다른 기술 툴과 마찬가지로 취급하면 됩니다. 즉, 위험을 이해하고 공격이 성공할 가능성을 최소화하기 위해 사전 예방적 조치를 취해야 합니다.
IBM watsonx.governance로 조직은 하나의 통합 플랫폼에서 AI 활동을 쉽게 지시, 관리 및 모니터링할 수 있습니다. IBM watsonx.governance는 모든 공급업체의 생성형 AI 모델을 관리하고, 모델 상태와 정확성을 평가하며, 주요 규제 준수 워크플로를 자동화할 수 있습니다.