이 문서는 오늘날 업계의 AI 윤리에 대한 포괄적인 시장 관점을 제공하는 것을 목표로 합니다. IBM의 관점에 대해 자세히 알아보려면 여기에서 IBM의 AI 윤리 페이지를 참조하세요.
윤리는 옳고 그름을 분별하는 데 도움이 되는 일련의 도덕적 원칙입니다. AI 윤리는 인공 지능의 설계와 결과에 대해 조언하는 일련의 지침입니다. 인간에게는 최신성 편향, 확증 편향과 같은 모든 종류의 인지적 편향이 작용하며, 이렇게 내재된 편향은 인간의 행동과 그에 따른 데이터로 나타납니다. 데이터는 모든 머신 러닝 알고리즘의 토대가 되고, 인공 지능에는 이러한 인간의 편향을 전례 없는 속도로 증폭시키고 확장할 수 있는 잠재력이 있으므로 이를 염두에 두고 실험과 알고리즘을 구성하는 것이 중요합니다.
빅데이터의 출현으로 기업들은 조직 전반의 자동화 및 데이터 기반 의사결정을 추진하는 데 집중하고 있습니다. 항상은 아니더라도 대개 비즈니스 결과를 개선하려는 의도를 가진 기업의 경우 특히 잘못된 선행 연구 설계와 편향된 데이터 세트로 인해 일부 AI 애플리케이션에서 예기치 않은 결과 내는 경험을 하고 있습니다.
불공정한 결과의 사례가 드러나면서 AI의 윤리에 대한 우려를 해결하기 위해 주로 연구 및 데이터 사이언스 커뮤니티에서 새로운 지침이 등장했습니다. AI 분야의 선두 기업들도 이러한 지침을 마련하는 데 있어 기득권을 가지고 있었는데, 이들 기업들도 제품 내에서 윤리적 기준을 지키지 못한 결과를 경험하기 시작했기 때문입니다. 윤리적 기준을 지키지 못할 경우 평판이 손상되거나 규제 및 법적 노출이 발생하여 막대한 벌금이 부과될 수 있습니다. 모든 기술 발전이 그러하듯, 새롭게 떠오르는 분야에서의 혁신은 정부 규제를 능가하는 경향이 있습니다. 정부에서 적절한 전문 기술을 개발함에 따라 기업이 따라야 할 AI 프로토콜이 늘어나면서 인권 및 시민의 자유에 대한 침해가 방지될 것으로 기대됩니다.
IBM의 차세대 AI 및 데이터 플랫폼으로 기업의 AI 능력을 강화하세요.
AI 윤리 원칙을 구현하는 방법에 대해 자세히 알아보세요. (326KB)
AI의 사용을 관리하기 위한 규칙과 프로토콜이 개발되는 동안 학계에서는 벨몬트 보고서(ibm.com 외부 링크)(PDF, 121KB)를 실험적 연구 및 알고리즘 개발 내에 윤리를 적용하는 수단으로 활용했습니다. 실험 및 알고리즘 설계의 지침 역할을 하는 벨몬트 보고서에서 나온 세 가지 주요 원칙은 다음과 같습니다.
IBM AI 윤리
AI 기술을 둘러싼 윤리적 논의의 최전선에는 여러 가지 문제가 있습니다. 일부를 소개하면 다음과 같습니다.
이 주제는 대중의 많은 관심을 끌지만, 많은 연구자들은 가까운 또는 임박한 미래에 인간의 지능을 능가하는 AI라는 생각에는 별로 관심이 없습니다. 이를 '초지능' 이라고도 하는데, Nick Bostrum은 이를 "과학적 창의성, 통념 및 사회적 기능을 포함한 모든 실질적인 분야에서 최고의 인간 두뇌를 훨씬 능가하는 모든 지성"이라고 정의합니다. 강력한 AI와 초지능이 당장 우리 사회에 구현되지 않는 상황에서, 자율주행차와 같은 자율형 시스템의 사용을 고려할 때 이러한 생각들은 우리에게 흥미로운 질문들을 던져줍니다. 무인주행차가 결코 자동차 사고를 당하지 않을 것이라는 생각은 비현실적이지만, 해당 상황에서는 누구에게 법적인 책임이 있을까요? 자율주행 차량을 계속 추진해야 할까요? 아니면 이 기술의 통합을 제한함으로써 운전자들의 안전을 증진시키는 반자율형 차량만을 만들어야 할까요? 전문가들이 여전히 이 문제를 고심하고 있지만, 새롭고 혁신적인 AI 기술이 발전하면서 다양한 유형의 윤리적 논쟁들이 벌어지고 있습니다.
인공지능과 관련하여 많은 대중들의 관심사가 일자리 유실에 집중된 가운데, 이러한 우려는 아마도 재고의 여지가 충분합니다. 모든 파괴적인 신기술을 통해, 우리는 특정한 일자리의 역할에 대한 시장의 요구사항이 전환됨을 알 수 있습니다. 예컨대 자동차 산업을 살펴보면, GM과 같은 많은 제조업체들이 친환경 이니셔티브에 편승하여 전기자동차 생산에 주력하고 있습니다. 에너지 산업은 사라지지 않지만, 에너지원은 화석 연료 경제에서 전기 경제로 이동하고 있습니다. 우리는 인공지능이 일자리의 수요를 다른 영역으로 전이하는 것과 유사한 방식으로 인공지능을 바라봐야 합니다. 데이터가 증가하고 매일 변경되므로, 이러한 시스템의 관리를 지원하는 인력이 필요합니다. 고객 서비스와 같은 일자리 수요의 변화에 따라 가장 영향을 받을 가능성이 높은 업종 내에서 보다 복잡한 문제를 해결하기 위한 리소스는 여전히 필요합니다. 인공지능의 중요 측면과 고용 시장의 영향은 개인들이 이러한 신규 시장 수요 영역으로 전환하는 데 도움이 됩니다.
데이터 개인정보 보호, 데이터 보호 및 데이터 보안의 측면에서 개인정보 보호 정책이 논의되는 경향이 있으며, 이러한 관심사에 따라 정책 입안자들은 최근 몇 년간 이 분야에서 더 많은 발전을 이룰 수 있게 되었습니다. 예를 들어, 2016년에 GDPR 법안이 유럽 연합 및 유럽 경제 지역 국민들의 개인 데이터를 보호하기 위해 제정되었으며, 개인들이 자신의 데이터를 보다 잘 통제할 수 있게 되었습니다. 미국에서는 각 주마다 CCPA(California Consumer Privacy Act) 등의 정책을 개발 중이며, 이는 기업들에게 데이터 수집에 관해 소비자들에게 정보를 제공하도록 요구합니다. 이 최근 법안은 기업들에게 개인 식별 데이터(PII)의 저장 및 사용 방법을 재고하도록 강제했습니다. 결과적으로, 보안에 대한 투자는 감시, 해킹 및 사이버 공격과 관련한 취약성과 이의 악용 기회를 차단하고자 하는 기업들에게 점점 더 중요한 우선순위가 되고 있습니다.
다수의 지능형 시스템에서 편견과 차별의 사례들은 인공지능의 사용과 관련한 많은 윤리적 문제들을 제기하고 있습니다. 훈련 데이터 자체가 편견에 치우친 경우, 우리는 어떻게 편견과 차별로부터 우리를 보호할 수 있을까요? 기업들은 일반적으로 자사의 자동화 업무와 관련하여 선의의 의도를 지니고 있지만, Reuters(IBM 외부 링크)는 AI를 채용 시스템에 도입하면서 나타나는 예상치 못한 일부 결과에 주목하고 있습니다. 프로세스의 자동화와 간소화를 추진하는 과정에서 Amazon은 의도치 않게 채용 중인 기술직 역할의 직무 내용에 성별에 대한 편견을 포함시켰고, 결국에는 해당 프로젝트를 폐기해야 했습니다. 이러한 사건이 드러나면서, Harvard Business Review(IBM 외부 링크)는 구직 후보자를 평가할 때 어떤 데이터를 사용할 수 있어야 하는지 등과 같이 채용 업무에서 AI의 활용과 관련하여 기타 날카로운 질문을 제기했습니다.
편견과 차별은 인적 자원 기능에만 국한되지 않으며, 이는 안면 인식 소프트웨어부터 소셜 미디어 알고리즘에 이르기까지 다수의 애플리케이션에서 발견될 수 있습니다.
기업들이 AI로 인한 리스크를 보다 많이 인식하게 됨에 따라, AI 윤리와 가치에 대한 논의도 더욱 활발해졌습니다. 예를 들어, 지난 해에 IBM의 CEO인 Arvind Krishna는 IBM이 범용 IBM 안면 인식 및 분석 제품을 중단했다고 공표했습니다. 이와 동시에 "대중 감시, 인종 프로파일링, 기본 인권 및 자유의 침해를 위해 또는 당사의 가치와 신뢰 및 투명성 원칙에 위배되는 용도로 사용되는 타사 제공 안면 인식 기술을 포함한 어떠한 기술의 사용도 강력히 반대하며 이를 용납하지 않을 것임"을 강조했습니다.
AI 사례를 규제하는 중요 법안이 없으므로, 윤리적 AI가 실시되도록 보장하는 실질적인 시행 법안은 아직 없습니다. 기업들이 이러한 지침을 준수하도록 하는 현행 인센티브는 최종 결과에 대한 비윤리적 AI 시스템의 부정적인 반사작용입니다. 이러한 간극을 메우기 위해, 윤리적 프레임워크가 사회 내에서 AI 모델의 구축과 보급을 통제하기 위한 윤리학자와 연구자들 간의 협업의 일환으로 탄생했습니다. 그러나 현재로서는 이는 지침으로서의 역할만 할 뿐입니다. 연구(IBM 외부 링크)(PDF, 1MB)에 따르면, 책임 분산과 잠재적 결과에 대한 예지력 결여의 조합은 사회에 대한 유해를 차단하는 데 반드시 유용하지만은 않음을 보여줍니다.
인공 지능이 도덕적 기계를 만드는 것이 아니므로 팀은 현재의 윤리적 문제 중 일부를 해결하고 현장에서 미래의 업무 환경을 구체화하기 위해 프레임워크와 개념을 조합하기 시작했습니다. 매일 이러한 지침에 더 많은 구조가 주입되지만 다음을 통합하는 것에 어느 정도의 합의가 이루어지고 있습니다.
윤리적 AI의 구현은 의심할 여지 없이 그 성공에 중요한 역할을 할 것입니다. 그러나 사회에 긍정적 영향을 미칠 수 있는 엄청난 잠재력이 있다는 점이 중요합니다. 우리는 방사선과 같은 의료 분야와의 통합에서 이러한 잠재력을 보기 시작했습니다. AI 윤리에 대한 이러한 논의는 이 기술을 선의로 활용하려고 노력하는 과정에서 설계에 포함된 유해성을 적절하게 평가하기 위한 것입니다.
윤리적 기준은 민간 부문 데이터 엔지니어 및 데이터 사이언티스트의 주요 관심사가 아니기 때문에 인공 지능 분야의 윤리적 행동을 장려하기 위해 많은 조직이 등장했습니다. 더 많은 정보를 원하는 사용자를 위해 다음과 같은 조직 및 프로젝트에서 윤리적 AI 구현에 대한 리소스를 제공합니다.
IBM 또한 자체적으로 AI 윤리에 대한 관점을 확립하였으며, 이를 바탕으로 신뢰와 투명성의 원칙을 만들어 고객이 AI에 관한 논의에서 그 가치를 파악하도록 돕습니다. IBM에는 데이터 및 AI에 대한 접근 방식을 규정하는 세 가지 핵심 원칙이 있습니다.
IBM은 AI 기술의 책임 있는 선택을 안내하기 위해 일련의 중점 영역을 개발했습니다. 예를 들면 다음과 같습니다.
이러한 원칙과 중점 영역은 AI 윤리에 대한 IBM의 접근 방식을 뒷받침하고 있습니다. 윤리 및 인공 지능에 대한 IBM의 관점에 대해 자세히 알아보려면 여기를 참조하세요.
IBM은 윤리적 지침과 원칙을 염두에 두고 제품이 구성되고 활용되도록 보장합니다. IBM이 고객에게 제공하는 제품 중 하나인 IBM Watson Studio는 윤리적 AI 기준의 감독과 규정 준수를 개선합니다.
IBM Cloud Pak for Data 기반 IBM Watson Studio는 모델을 모니터링하고 관리하여 신뢰할 수 있는 AI를 운영하는 데 도움이 됩니다. 조직은 프로덕션 단계에서 AI 모델을 시각화 및 추적하고, 모델을 검증 및 테스트하여, 규제 위험을 완화하고 AI 수명주기의 가시성을 높일 수 있습니다. 지금 IBMid로 등록하고 무료 IBM Cloud 계정을 생성하세요.
윤리 및 인공 지능에 대한 IBM의 관점에 대해 자세히 알아보려면 여기를 참조하세요.
AI 모델을 구축하고 실행하며 관리합니다. 오픈 소스 코드 또는 비주얼 모델링을 사용하여 모든 클라우드에서 데이터를 준비하고 모델을 구축합니다. 결과를 예측하고 최적화합니다.
Cloud Pak for Data는 클라우드에서 모든 데이터를 AI 및 분석에 사용할 수 있도록 데이터 패브릭을 제공하는 개방형의 확장 가능한 데이터 플랫폼입니다.
신뢰할 수 있는 AI에 대한 IBM의 접근 방식은 종합적이고 다차원적입니다.