게시일: 2024년 2월 6일
기고자: Cole Stryker
책임감 있는 인공 지능(AI)은 AI의 설계, 개발, 배포 및 사용을 안내하는 데 도움이 되는 일련의 원칙으로, 조직과 이해관계자의 역량을 강화할 수 있는 AI 솔루션에 대한 신뢰를 구축합니다. 책임감 있는 AI에는 AI 시스템의 광범위한 사회적 영향과 이러한 기술을 이해관계자의 가치, 법적 표준 및 윤리 원칙에 맞추는 데 필요한 조치를 고려하는 것이 포함됩니다. 책임감 있는 AI는 이러한 윤리적 원칙을 AI 애플리케이션 및 워크플로에 적용하여 AI 사용과 관련된 위험과 부정적인 결과를 완화하는 동시에 긍정적인 결과를 극대화하는 것을 목표로 합니다.
이 문서는 책임감 있는 AI에 대한 일반적인 관점을 제공하는 것을 목표로 합니다. IBM의 구체적인 관점에 대해 자세히 알아보려면 AI 윤리 페이지를 참조하세요.
2010년대에 빅 데이터와 컴퓨팅 파워의 발전에 힘입어 머신 러닝이 널리 채택되면서 편향, 투명성 및 개인 데이터 사용과 같은 새로운 윤리적 문제가 발생했습니다. 이 기간 동안 기술 기업과 AI 연구 기관이 AI를 책임감 있게 관리하기 위해 적극적으로 노력하면서 AI 윤리가 뚜렷한 분야로 부상했습니다.
Accenture의 조사에 따르면, "전 세계 소비자의 35%만이 조직에서 AI 기술을 구현하는 방식을 신뢰합니다. 그리고 77%는 조직이 AI의 오용에 대해 책임을 져야 한다고 생각합니다.”1 이러한 분위기에서 AI 개발자는 강력하고 일관된 윤리적 AI 프레임워크를 통해 이러한 노력을 이끌어가야 합니다.
이는 특히 현재 기업에서 빠르게 채택하고 있는 새로운 유형의 생성형 AI에 적용되는 사안입니다. 책임감 있는 AI 원칙은 도입자가 이러한 툴의 잠재력을 최대한 활용하면서 원치 않는 결과를 최소화하는 데 도움이 될 수 있습니다.
AI는 신뢰할 수 있어야 하며, 이해관계자가 AI를 신뢰하려면 AI가 투명해야 합니다. 기술 기업은 AI 시스템을 학습시키는 사람, 학습에 사용된 데이터, 그리고 가장 중요한 알고리즘의 추천에 사용된 데이터에 대해 명확히 밝혀야 합니다. 중요한 결정을 내리는 데 AI를 사용하려면 이를 설명할 수 있어야 합니다.
책임감 있고 투명하며 설명 가능한 AI 워크플로우를 가속화합니다.
IBM은 이러한 원칙을 명확하게 설명하기 위한 프레임워크를 개발했습니다. "신뢰의 핵심 요소"를 구성하는 속성을 살펴보겠습니다. 이러한 속성을 종합하면 " AI 모델의 아웃풋을 신뢰하려면 무엇이 필요할까요?"라는 질문에 대한 답을 얻을 수 있습니다. 신뢰할 수 있는 AI는 IBM의 전략적 및 윤리적 측면에 있어 필수 요소이지만, 이러한 신뢰의 핵심 요소는 모든 기업이 AI를 구현할 때 그 방향성을 찾는 데 사용할 수 있습니다.
심층 신경망과 같은 머신 러닝 모델은 다양한 작업에서 놀라운 정확도를 달성합니다. 그러나 설명 가능성과 해석 가능성은 신뢰할 수 있는 AI를 개발하는 데 있어 매우 필수적인 요소입니다. IBM의 설명 가능성에 대한 접근 방식은 세 가지 원칙으로 구성됩니다.
정확도는 일상 업무에서 AI를 얼마나 성공적으로 사용할 수 있는지를 결정하는 핵심 요소입니다. 시뮬레이션을 실행하고, AI의 아웃풋을 학습 데이터 세트의 결과와 비교하여 예측 정확도를 판단할 수 있습니다. 이를 위해 가장 많이 사용되는 기술은 머신 러닝 알고리즘에 의한 분류기 예측을 설명하는 로컬 해석 가능한 모델-진단 설명(LIME)입니다.
추적 가능성은 사용자가 예측 및 프로세스를 추적할 수 있는지 여부를 나타내는 AI의 속성입니다. 여기에는 데이터의 문서화와 모델이 데이터를 처리하는 방법이 포함됩니다. 추적 가능성은 명 가능성을 달성하기 위한 또 다른 핵심 기술이며, 예를 들어 의사 결정 방식을 제한하고 머신 러닝 규칙 및 기능에 대한 범위를 더 좁게 설정하여 달성할 수 있습니다.
이는 인적 요소입니다. 실무자는 AI가 결론을 도출하는 방법과 그 이유를 이해할 수 있어야 합니다. 이는 지속적인 교육을 통해 달성할 수 있습니다.
머신 러닝 모델은 사람과 관련된 중요한 의사 결정에 정보를 제공하는 데 점점 더 많이 사용되고 있습니다. 머신 러닝은 본질적으로 통계적 차별의 한 형태이지만, 이 차별이 특권층에게는 제도적으로 유리하고 특정 비특권층에게는 제도적으로 불리하게 작용하여 다양한 피해를 야기할 수 있는 경우 문제가 될 수 있습니다. 라벨의 편향 또는 과소/과잉 샘플링으로 인한 학습 데이터의 편향은 원치 않는 편향이 있는 모델을 생성합니다.
다양하고 대표적인 데이터
AI 모델을 구축하는 데 사용되는 학습 데이터가 다양하고 대상 집단을 대표할 수 있는지 확인합니다. 과소 대표 또는 편향을 피하기 위해 다양한 인구 통계 집단의 데이터 입력을 포함합니다. 훈련 데이터에 편향이 있는지 정기적으로 확인하고 평가합니다. 모델을 훈련하기 전에 도구와 기술을 사용하여 데이터 세트의 편향을 식별하고 수정합니다.
편향 인식 알고리즘
개발 프로세스에 공정성 메트릭을 통합하여 모델의 예측이 다양한 하위 그룹에 미치는 영향을 평가합니다. 다양한 인구 통계 그룹에 걸쳐 결과의 격차를 모니터링하고 최소화합니다. 알고리즘에 제약 조건을 적용하여 모델이 학습 및 배포 중에 미리 정의된 공정성 기준을 준수하도록 합니다.
편향 완화 기술
재샘플링, 가중치 재조정, 적대적 학습과 같은 기술을 적용하여 모델 예측의 편향을 완화합니다.
다양한 개발 팀
AI 개발과 관련된 여러 분야의 다양한 팀을 구성하세요. 다양한 팀은 서로 다른 관점을 가져와 동질적인 팀에서 간과할 수 있는 편향을 식별하고 수정하는 데 도움을 줄 수 있습니다.
윤리적 AI 검토 위원회
AI 프로젝트의 잠재적 편향과 윤리적 영향을 평가하기 위해 검토 위원회 또는 위원회를 설립합니다. 이러한 위원회는 개발 라이프사이클 전반에 걸쳐 윤리적 고려 사항에 대한 지침을 제공할 수 있습니다.
견고한 AI는 입력 이상이나 악의적인 공격과 같은 예외적인 상황에서도 의도하지 않은 피해를 일으키지 않고 효과적으로 처리합니다. 또한 노출된 취약점으로부터 보호하여 의도적이거나 의도하지 않은 간섭을 견딜 수 있도록 설계되었습니다. 이러한 모델에 대한 의존도가 높아지고 기밀 및 독점 지식의 축적과 함께 그 가치가 높아짐에 따라 공격의 위험도 커지고 있습니다. 이러한 모델은 고유한 보안 위험을 내포하고 있으므로 이를 고려하고 완화해야 합니다.
사용자는 서비스가 작동하는 방식을 확인하고, 기능을 평가하고, 서비스의 장점과 한계를 이해해야 합니다. 투명성이 높아지면 AI 소비자가 AI 모델 또는 서비스가 어떻게 만들어졌는지 더 잘 이해할 수 있는 정보를 얻을 수 있습니다. 이를 통해 모델 사용자는 해당 모델이 주어진 사용 사례에 적합한지 여부를 판단하거나 AI가 어떻게 부정확하거나 편향된 결론을 도출했는지 평가할 수 있습니다.
GDPR을 포함한 많은 규제 프레임워크는 조직이 개인 정보를 처리할 때 특정 개인정보 보호 원칙을 준수하도록 의무화하고 있습니다. 학습된 ML 모델에 액세스할 수 있는 악의적인 제3자는 학습 데이터 자체에 액세스하지 못하더라도 모델 학습에 사용된 데이터 소유자에 대한 민감한 개인 정보를 노출할 수 있습니다. 개인 정보가 포함될 수 있는 AI 모델을 보호하고 애초에 모델에 들어가는 데이터를 제어할 수 있는 것이 중요합니다.
기업 수준에서 책임감 있는 AI 관행을 구현하려면 AI 개발 및 배포의 다양한 단계를 다루는 총체적인 엔드투엔드 접근 방식이 필요합니다.
기업의 가치와 목표에 부합하는 책임감 있는 AI 원칙을 개발하세요. 위의 '신뢰의 핵심 요소'에서 설명한 주요 측면을 고려하세요. 이러한 원칙은 AI 전문가, 윤리학자, 법률 전문가, 비즈니스 리더 등 다양한 부서의 대표로 구성된 다기능 전담 AI 윤리팀에서 개발하고 유지 관리할 수 있습니다.
직원, 이해관계자 및 의사 결정권자에게 책임감 있는 AI 관행에 대해 교육하는 교육 프로그램을 실시합니다. 여기에는 잠재적 편향, 윤리적 고려 사항, 책임감 있는 AI를 비즈니스 운영에 통합하는 것의 중요성을 이해하는 것이 포함됩니다.
데이터 수집 및 모델 교육부터 배포 및 지속적인 모니터링에 이르기까지 AI 개발 파이프라인 전반에 걸쳐 책임감 있는 AI 관행을 도입합니다. AI 시스템의 편향을 해결하고 완화하는 기술을 사용합니다. 특히 인종, 성별 또는 사회경제적 지위와 같은 민감한 속성과 관련하여 모델의 공정성을 정기적으로 평가합니다. AI 시스템을 설명 가능하게 만들어 투명성을 우선시하세요. 데이터 소스, 알고리즘 및 의사 결정 프로세스에 대한 명확한 문서를 제공하세요. 사용자와 이해관계자들은 AI 시스템이 어떻게 의사결정을 내리는지 이해할 수 있어야 합니다.
최종 사용자의 개인정보와 민감한 데이터를 보호하기 위해 강력한 데이터 및 AI 거버넌스 관행과 보호 장치를 확립합니다. 데이터 사용 정책을 명확하게 전달하고, 정보에 입각한 동의를 얻고, 데이터 보호 규정을 준수하세요.
중요한 의사 결정 프로세스에서 사람이 감독할 수 있는 메커니즘을 통합합니다. 책임 당사자를 식별하고 AI 시스템의 결과에 대해 책임을 질 수 있도록 명확한 책임 범위를 정의하세요. AI 시스템에 대한 지속적인 모니터링을 설정하여 시간이 지남에 따라 발생할 수 있는 윤리적 문제, 편향 또는 문제를 식별하고 해결합니다. 정기적으로 AI 모델을 감사하여 윤리 지침을 준수하는지 평가합니다.
책임감 있는 AI를 연구하는 외부 조직, 연구 기관 및 오픈 소스 그룹과의 협업을 촉진합니다. 책임감 있는 AI 관행 및 이니셔티브의 최신 개발 현황에 대한 정보를 얻고 업계 전반의 노력에 기여하세요.
신뢰할 수 있는 AI를 위한 IBM의 다학문적, 다차원적 접근 방식
책임감 있고 투명하며 설명 가능한 AI 워크플로를 구축하세요.
IBM Consulting은 책임감 있는 AI 거버넌스를 비즈니스에 통합할 수 있도록 지원합니다.
IBM은 신뢰와 투명성을 위한 원칙을 기반으로 구축된 AI 윤리에 대한 다학제적, 다차원적 접근 방식을 공개적으로 정의했습니다.
IBM은 100년 이상 고객의 가장 귀중한 데이터를 책임감 있게 관리하여 고객의 신뢰를 얻었습니다. 또한 명확한 목적과 책임감을 가지고 강력한 신기술을 세상에 선보여 사회의 신뢰를 얻기 위해 노력해 왔습니다.
설명 가능한 인공 지능(XAI)은 머신 러닝 알고리즘이 생성한 결과와 아웃풋을 인간 사용자가 이해하고 신뢰할 수 있도록 하는 일련의 프로세스와 방법입니다.
1 기술 비전 2022(ibm.com 외부 링크) Accenture, 2022년.