기업이 인공 지능(AI) 사용을 늘리면서 사람들은 인간의 편견이 AI 시스템에 어느 정도까지 침투했는지에 대해 의문을 제기하고 있습니다. 현실 세계의 AI 편향 사례는 차별적인 데이터와 알고리즘이 AI 모델에 적용되면 모델이 편향을 대규모로 배포하고 그로 인한 부정적인 영향을 증폭시킨다는 것을 보여줍니다.
기업은 공정성을 달성하는 것뿐만 아니라 더 나은 결과를 보장하기 위해 AI의 편향성 문제를 해결하고자 합니다. 그러나 현실 세계에서 인종과 성별에 대한 편견을 없애는 것이 어려운 것처럼, AI의 편향성을 없애는 것도 쉬운 일이 아닙니다.
McKinsey 자료 What AI can and can’t do (yet) for your business에서 저자인 Michael Chui, James Manyika, Mehdi Miremadi는 이렇게 설명합니다. "이러한 편견은 계속 내재해 있기 쉽습니다. 이러한 편견을 인식하고 이를 해결하기 위한 조치를 취하려면 데이터 과학 기법에 심층적으로 숙달하고 데이터 수집을 포함해 기존의 사회적 요인에 대한 메타 이해가 필요하기 때문입니다. 결론적으로, 편견 해소는 지금까지 가장 어려운 장애 요인 중 하나이며 사회적으로 분명 가장 큰 우려 사항입니다."
실생활에서 발생하는 AI 편향의 예를 통해 조직은 편향을 식별하고 해결하는 방법에 대한 유용한 인사이트를 얻을 수 있습니다. 이러한 사례를 비판적으로 살펴보고 편향을 극복한 성공 사례를 통해 데이터 과학자는 머신 러닝 모델에서 편향을 식별하고 예방하기 위한 로드맵을 구축할 수 있습니다.
머신 러닝 편향 또는 알고리즘 편향이라고도 하는 AI 편향은 과거 및 현재의 사회적 불평등을 포함하여 사회 내에서 인간의 편향을 반영하고 영속시키는 편향된 결과를 생성하는 AI 시스템을 말합니다. 편향성은 초기 학습 데이터, 알고리즘 또는 알고리즘이 생성하는 예측에서 발견될 수 있습니다.
편향이 해결되지 않으면 사람들이 경제와 사회에 참여할 수 있는 능력이 저하됩니다. 또한 이로 인해 AI의 잠재력도 감소합니다. 유색인종, 여성, 장애인, 성소수자 커뮤니티 또는 기타 소외된 사람들 사이에서 왜곡된 결과를 낳고 불신을 조장하는 시스템으로부터 기업은 이익을 얻을 수 없습니다.
AI 편향성을 제거하려면 데이터 세트, 머신 러닝 알고리즘 및 기타 AI 시스템의 요소를 자세히 분석하여 잠재적인 편향성의 원인을 파악해야 합니다.
AI 시스템은 훈련 데이터를 기반으로 의사 결정을 내리는 방법을 학습하므로 데이터 세트에 편향이 있는지 평가하는 것이 필수적입니다. 한 가지 방법은 학습 데이터 내에서 과대 또는 과소 대표된 그룹에 대한 데이터 샘플링을 검토하는 것입니다. 예를 들어, 백인을 과도하게 나타내는 얼굴 인식 알고리즘의 학습 데이터는 유색인종에 대한 얼굴 인식을 시도할 때 오류가 발생할 수 있습니다. 마찬가지로, 흑인이 주로 거주하는 지역에서 수집된 정보가 포함된 보안 데이터는 경찰이 사용하는 AI 툴에서 인종적 편견을 유발할 수 있습니다.
편향은 학습 데이터에 라벨을 지정하는 방식에서도 발생할 수 있습니다. 예를 들어, 일관되지 않은 라벨을 사용하거나 특정 특성을 제외하거나 과도하게 나타내는 AI 채용 툴은 자격을 갖춘 지원자를 고려 대상에서 제외할 수 있습니다.
결함이 있는 학습 데이터를 사용하면 알고리즘이 반복적으로 오류를 생성하거나, 부당한 결과를 초래하거나, 결함이 있는 데이터에 내재된 편향을 증폭시킬 수 있습니다. 알고리즘 편향은 개발자가 자신의 의식적 또는 무의식적 편향에 따라 알고리즘 의사 결정에 부당하게 가중치를 부여하는 등의 프로그래밍 오류로 인해 발생할 수도 있습니다. 예를 들어, 소득이나 어휘와 같은 지표가 알고리즘에서 특정 인종이나 성별의 사람들을 의도치 않게 차별하는 데 사용될 수 있습니다.
사람들이 정보를 처리하고 판단을 내릴 때, 우리는 필연적으로 경험과 선호도의 영향을 받을 수밖에 없습니다. 결과적으로 사람들은 데이터를 선택하거나 데이터에 가중치를 부여하는 방식을 통해 AI 시스템에 이러한 편향을 구축할 수 있습니다. 예를 들어, 인지 편향으로 인해 전 세계의 다양한 인구에서 표본을 추출하는 대신 미국인으로부터 수집한 데이터 세트를 선호하게 될 수 있습니다.
NIST에 따르면 이러한 편향의 원인은 생각보다 흔하게 찾아볼 수 있다고 합니다. 인공 지능의 편향성을 식별하고 관리하기 위한 표준을 향하여(NIST 특별 간행물 1270) 보고서에서 NIST는 "인간과 제도적, 사회적 요인도 AI 편향성의 중요한 원인이며 현재 간과되고 있다"고 지적했습니다. "이 과제를 성공적으로 해결하려면 모든 형태의 편향을 고려해야 합니다. 그렇게 하려면 우리는 머신 러닝 파이프라인을 넘어 이 기술이 우리 사회에서 어떻게 생성되고 영향을 미치는지 인식하고 조사하기 위해 우리의 관점을 확장해야 합니다."
사회가 AI의 작동 방식과 편향 가능성에 대해 더 많이 인식하게 되면서, 조직들은 다양한 사용 사례에서 AI의 편향성에 대한 수많은 주목할 만한 사례를 발견했습니다.
AI의 편향성을 파악하고 해결하는 것은 조직의 AI 활동을 지시, 관리 및 모니터링하는 능력, 즉 AI 거버넌스에서 시작됩니다. 실제로 AI 거버넌스는 AI 기술의 책임감 있는 개발과 사용을 안내하는 일련의 정책, 관행 및 프레임워크를 만듭니다. AI 거버넌스가 잘 수행되면 기업, 고객, 직원, 사회 전체에 균형 잡힌 혜택이 제공될 수 있습니다.
AI 거버넌스 정책을 통해 기업은 다음과 같은 관행을 구축할 수 있습니다.
적절한 기술 조합은 효과적인 데이터 및 AI 거버넌스 전략에 매우 중요하며, 최신 데이터 아키텍처와 신뢰할 수 있는 AI 플랫폼이 핵심 구성 요소입니다. 데이터 패브릭 아키텍처 내의 정책 오케스트레이션은 복잡한 AI 감사 프로세스를 간소화할 수 있는 훌륭한 툴입니다. AI 감사 및 관련 프로세스를 데이터 아키텍처의 거버넌스 정책에 통합함으로써 조직은 지속적인 검사가 필요한 영역을 파악하는 데 도움을 받을 수 있습니다.
IBM Consulting에서는 고객이 편향 및 기타 영역에 대한 평가 프로세스를 설정하도록 돕고 있습니다. AI 도입이 확대되고 혁신이 발전함에 따라 보안 지침도 수년에 걸쳐 기업 구조에 내장된 모든 기술의 경우와 마찬가지로 성숙해질 것입니다. 아래에서는 조직이 환경 전반에 걸쳐 AI를 안전하게 배포할 수 있도록 준비하는 데 도움이 되는 IBM의 몇 가지 모범 사례를 공유합니다.