AI 윤리란?
AI 윤리는 데이터 과학자와 연구자들이 사회 전체에 이익이 되도록 윤리적인 방식으로 AI 시스템을 구축하도록 안내합니다.
IBM 뉴스레터 구독하기
원형 오로라
AI 윤리란?

이 문서는 오늘날 업계의 AI 윤리에 대한 포괄적인 시장 관점을 제공하는 것을 목표로 합니다. IBM의 관점에 대해 자세히 알아보려면 여기에서 IBM의 AI 윤리 페이지를 참조하세요.

윤리는 옳고 그름을 분별하는 데 도움이 되는 일련의 도덕적 원칙입니다. AI 윤리는 인공 지능의 설계와 결과에 대해 조언하는 일련의 지침입니다. 인간에게는 최신성 편향, 확증 편향과 같은 모든 종류의 인지적 편향이 작용하며, 이렇게 내재된 편향은 인간의 행동과 그에 따른 데이터로 나타납니다. 데이터는 모든 머신 러닝 알고리즘의 토대가 되고, 인공 지능에는 이러한 인간의 편향을 전례 없는 속도로 증폭시키고 확장할 수 있는 잠재력이 있으므로 이를 염두에 두고 실험과 알고리즘을 구성하는 것이 중요합니다.

빅데이터의 출현으로 기업들은 조직 전반의 자동화 및 데이터 기반 의사결정을 추진하는 데 집중하고 있습니다. 항상은 아니더라도 대개 비즈니스 결과를 개선하려는 의도를 가진 기업의 경우 특히 잘못된 선행 연구 설계와 편향된 데이터 세트로 인해 일부 AI 애플리케이션에서 예기치 않은 결과 내는 경험을 하고 있습니다.

불공정한 결과의 사례가 드러나면서 AI의 윤리에 대한 우려를 해결하기 위해 주로 연구 및 데이터 사이언스 커뮤니티에서 새로운 지침이 등장했습니다. AI 분야의 선두 기업들도 이러한 지침을 마련하는 데 있어 기득권을 가지고 있었는데, 이들 기업들도 제품 내에서 윤리적 기준을 지키지 못한 결과를 경험하기 시작했기 때문입니다. 윤리적 기준을 지키지 못할 경우 평판이 손상되거나 규제 및 법적 노출이 발생하여 막대한 벌금이 부과될 수 있습니다. 모든 기술 발전이 그러하듯, 새롭게 떠오르는 분야에서의 혁신은 정부 규제를 능가하는 경향이 있습니다. 정부에서 적절한 전문 기술을 개발함에 따라 기업이 따라야 할 AI 프로토콜이 늘어나면서 인권 및 시민의 자유에 대한 침해가 방지될 것으로 기대됩니다.

watsonx 만나보기

IBM의 차세대 AI 및 데이터 플랫폼으로 기업의 AI 능력을 강화하세요.

현대 AI 윤리의 발전

AI 윤리 원칙을 구현하는 방법에 대해 자세히 알아보세요. (326KB)

AI 윤리의 원칙 수립

AI의 사용을 관리하기 위한 규칙과 프로토콜이 개발되는 동안 학계에서는 벨몬트 보고서(ibm.com 외부 링크)(PDF, 121KB)를 실험적 연구 및 알고리즘 개발 내에 윤리를 적용하는 수단으로 활용했습니다. 실험 및 알고리즘 설계의 지침 역할을 하는 벨몬트 보고서에서 나온 세 가지 주요 원칙은 다음과 같습니다.

  1. 개인 존중: 이 원칙은 개인의 자율성을 인정하고 질병, 정신적 장애, 연령 제한과 같은 다양한 이유로 인해 자율성이 축소된 개인을 연구자가 보호해야 한다는 기대를 뒷받침합니다. 이 원칙은 주로 동의의 개념을 다룹니다. 개인은 자신이 참여 중인 모든 실험의 잠재적 위험과 이익을 알고 있어야 하고, 실험 전 및 도중에 언제든지 참여 또는 참여 철회를 선택할 수 있어야 합니다.
  2. 선행: 의사가 "해를 입히지 않는다"고 선서하는 의료 윤리를 참조한 이 원칙은 특정 시스템을 발전 및 개선하려는 의도에도 불구하고 인종, 성별, 정치적 성향 등에 대한 편견을 증폭시킬 수 있는 인공 지능의 알고리즘에 손쉽게 적용할 수 있습니다.
  3. 정의: 이 원칙은 공정성 및 평등의 문제를 다릅니다. 누가 실험과 머신 러닝의 혜택을 누려야 할까요? 벨몬트 보고서는 다음과 같이 부담과 혜택을 분배하는 5가지 방법을 제공합니다.
    • 균등한 할당
    • 개인의 필요
    • 개인의 노력
    • 사회 공헌
    • 장점
관련 링크

IBM AI 윤리

오늘날 AI의 주요 문제

AI 기술을 둘러싼 윤리적 논의의 최전선에는 여러 가지 문제가 있습니다. 일부를 소개하면 다음과 같습니다.

 

기술적 특이점


이 주제는 대중의 많은 관심을 끌지만, 많은 연구자들은 가까운 또는 임박한 미래에 인간의 지능을 능가하는 AI라는 생각에는 별로 관심이 없습니다. 이를 '초지능' 이라고도 하는데, Nick Bostrum은 이를 "과학적 창의성, 통념 및 사회적 기능을 포함한 모든 실질적인 분야에서 최고의 인간 두뇌를 훨씬 능가하는 모든 지성"이라고 정의합니다. 강력한 AI와 초지능이 당장 우리 사회에 구현되지 않는 상황에서, 자율주행차와 같은 자율형 시스템의 사용을 고려할 때 이러한 생각들은 우리에게 흥미로운 질문들을 던져줍니다. 무인주행차가 결코 자동차 사고를 당하지 않을 것이라는 생각은 비현실적이지만, 해당 상황에서는 누구에게 법적인 책임이 있을까요? 자율주행 차량을 계속 추진해야 할까요? 아니면 이 기술의 통합을 제한함으로써 운전자들의 안전을 증진시키는 반자율형 차량만을 만들어야 할까요? 전문가들이 여전히 이 문제를 고심하고 있지만, 새롭고 혁신적인 AI 기술이 발전하면서 다양한 유형의 윤리적 논쟁들이 벌어지고 있습니다.

 

일자리에 대한 AI의 영향


인공지능과 관련하여 많은 대중들의 관심사가 일자리 유실에 집중된 가운데, 이러한 우려는 아마도 재고의 여지가 충분합니다. 모든 파괴적인 신기술을 통해, 우리는 특정한 일자리의 역할에 대한 시장의 요구사항이 전환됨을 알 수 있습니다. 예컨대 자동차 산업을 살펴보면, GM과 같은 많은 제조업체들이 친환경 이니셔티브에 편승하여 전기자동차 생산에 주력하고 있습니다. 에너지 산업은 사라지지 않지만, 에너지원은 화석 연료 경제에서 전기 경제로 이동하고 있습니다. 우리는 인공지능이 일자리의 수요를 다른 영역으로 전이하는 것과 유사한 방식으로 인공지능을 바라봐야 합니다. 데이터가 증가하고 매일 변경되므로, 이러한 시스템의 관리를 지원하는 인력이 필요합니다. 고객 서비스와 같은 일자리 수요의 변화에 따라 가장 영향을 받을 가능성이 높은 업종 내에서 보다 복잡한 문제를 해결하기 위한 리소스는 여전히 필요합니다. 인공지능의 중요 측면과 고용 시장의 영향은 개인들이 이러한 신규 시장 수요 영역으로 전환하는 데 도움이 됩니다.

 

개인 정보 보호


데이터 개인정보 보호, 데이터 보호 및 데이터 보안의 측면에서 개인정보 보호 정책이 논의되는 경향이 있으며, 이러한 관심사에 따라 정책 입안자들은 최근 몇 년간 이 분야에서 더 많은 발전을 이룰 수 있게 되었습니다. 예를 들어, 2016년에 GDPR 법안이 유럽 연합 및 유럽 경제 지역 국민들의 개인 데이터를 보호하기 위해 제정되었으며, 개인들이 자신의 데이터를 보다 잘 통제할 수 있게 되었습니다. 미국에서는 각 주마다 CCPA(California Consumer Privacy Act) 등의 정책을 개발 중이며, 이는 기업들에게 데이터 수집에 관해 소비자들에게 정보를 제공하도록 요구합니다. 이 최근 법안은 기업들에게 개인 식별 데이터(PII)의 저장 및 사용 방법을 재고하도록 강제했습니다. 결과적으로, 보안에 대한 투자는 감시, 해킹 및 사이버 공격과 관련한 취약성과 이의 악용 기회를 차단하고자 하는 기업들에게 점점 더 중요한 우선순위가 되고 있습니다.

 

편견과 차별


다수의 지능형 시스템에서 편견과 차별의 사례들은 인공지능의 사용과 관련한 많은 윤리적 문제들을 제기하고 있습니다. 훈련 데이터 자체가 편견에 치우친 경우, 우리는 어떻게 편견과 차별로부터 우리를 보호할 수 있을까요? 기업들은 일반적으로 자사의 자동화 업무와 관련하여 선의의 의도를 지니고 있지만, Reuters(IBM 외부 링크)는 AI를 채용 시스템에 도입하면서 나타나는 예상치 못한 일부 결과에 주목하고 있습니다. 프로세스의 자동화와 간소화를 추진하는 과정에서 Amazon은 의도치 않게 채용 중인 기술직 역할의 직무 내용에 성별에 대한 편견을 포함시켰고, 결국에는 해당 프로젝트를 폐기해야 했습니다. 이러한 사건이 드러나면서, Harvard Business Review(IBM 외부 링크)는 구직 후보자를 평가할 때 어떤 데이터를 사용할 수 있어야 하는지 등과 같이 채용 업무에서 AI의 활용과 관련하여 기타 날카로운 질문을 제기했습니다.

편견과 차별은 인적 자원 기능에만 국한되지 않으며, 이는 안면 인식 소프트웨어부터 소셜 미디어 알고리즘에 이르기까지 다수의 애플리케이션에서 발견될 수 있습니다.

기업들이 AI로 인한 리스크를 보다 많이 인식하게 됨에 따라, AI 윤리와 가치에 대한 논의도 더욱 활발해졌습니다. 예를 들어, 지난 해에 IBM의 CEO인 Arvind Krishna는 IBM이 범용 IBM 안면 인식 및 분석 제품을 중단했다고 공표했습니다. 이와 동시에 "대중 감시, 인종 프로파일링, 기본 인권 및 자유의 침해를 위해 또는 당사의 가치와 신뢰 및 투명성 원칙에 위배되는 용도로 사용되는 타사 제공 안면 인식 기술을 포함한 어떠한 기술의 사용도 강력히 반대하며 이를 용납하지 않을 것임"을 강조했습니다.

책임


AI 사례를 규제하는 중요 법안이 없으므로, 윤리적 AI가 실시되도록 보장하는 실질적인 시행 법안은 아직 없습니다. 기업들이 이러한 지침을 준수하도록 하는 현행 인센티브는 최종 결과에 대한 비윤리적 AI 시스템의 부정적인 반사작용입니다. 이러한 간극을 메우기 위해, 윤리적 프레임워크가 사회 내에서 AI 모델의 구축과 보급을 통제하기 위한 윤리학자와 연구자들 간의 협업의 일환으로 탄생했습니다. 그러나 현재로서는 이는 지침으로서의 역할만 할 뿐입니다. 연구(IBM 외부 링크)(PDF, 1MB)에 따르면, 책임 분산과 잠재적 결과에 대한 예지력 결여의 조합은 사회에 대한 유해를 차단하는 데 반드시 유용하지만은 않음을 보여줍니다.

AI 윤리의 확립 방안

인공 지능이 도덕적 기계를 만드는 것이 아니므로 팀은 현재의 윤리적 문제 중 일부를 해결하고 현장에서 미래의 업무 환경을 구체화하기 위해 프레임워크와 개념을 조합하기 시작했습니다. 매일 이러한 지침에 더 많은 구조가 주입되지만 다음을 통합하는 것에 어느 정도의 합의가 이루어지고 있습니다.

  • 거버넌스: 기업들은 기존 조직 구조를 활용하여 윤리적 AI를 관리할 수 있습니다. 기업이 데이터를 수집하는 경우, 해당 기업은 데이터 표준화 및 품질 보증을 지원하기 위해 거버넌스 시스템을 이미 구축했을 가능성이 높습니다. 사내 규제 및 법무 팀이 이미 정부 기관의 규정 준수를 보장하기 위해 거버넌스 팀과 협력하고 있을 가능성이 높기 때문에, 윤리적 AI를 포함하도록 이 팀의 범위를 확장하는 것이 현재 우선순위를 자연스럽게 확장하는 것입니다. 이 팀은 또한 조직의 인식을 관리하고 이해관계자가 회사 가치 및 윤리적 기준에 따라 행동하도록 독려할 수 있습니다.  
  • 설명가능성: 머신 러닝 모델, 특히 딥 러닝 모델은 "블랙 박스 모델"로 불리는 경우가 많은데, 일반적으로 모델이 정해진 의사결정에 도달하는 방법이 명확하지 않기 때문입니다. 이 연구(ibm.com 외부 링크)(PDF, 1.8MB)에 따르면 설명가능성은 "기계의 이론적 근거를 설명하는, 인간이 이해할 수 없는 설명"을 생성하여 모델 조립 및 모델 출력 시 이러한 모호성을 제거합니다.  이러한 유형의 투명성은 모델이 정해진 의사결정 지점에 도달하는 이유를 개인이 이해할 수 있도록 AI 시스템과의 신뢰를 구축하는 데 중요합니다. 그 이유를 정확히 이해할 수 있다면 편견과 차별 같은 AI 위험을 효과적으로 회피할 수 있습니다.  

윤리적 AI의 구현은 의심할 여지 없이 그 성공에 중요한 역할을 할 것입니다. 그러나 사회에 긍정적 영향을 미칠 수 있는 엄청난 잠재력이 있다는 점이 중요합니다. 우리는 방사선과 같은 의료 분야와의 통합에서 이러한 잠재력을 보기 시작했습니다. AI 윤리에 대한 이러한 논의는 이 기술을 선의로 활용하려고 노력하는 과정에서 설계에 포함된 유해성을 적절하게 평가하기 위한 것입니다.

윤리적 AI 조직

윤리적 기준은 민간 부문 데이터 엔지니어 및 데이터 사이언티스트의 주요 관심사가 아니기 때문에 인공 지능 분야의 윤리적 행동을 장려하기 위해 많은 조직이 등장했습니다. 더 많은 정보를 원하는 사용자를 위해 다음과 같은 조직 및 프로젝트에서 윤리적 AI 구현에 대한 리소스를 제공합니다.

  • AlgorithmWatch: 이 비영리 단체는 AI 프로그램에서 설명 가능하고 추적 가능한 알고리즘 및 의사결정 프로세스에 중점을 둡니다. 자세히 알아보려면 여기(ibm.com 외부 링크)를 클릭하세요.
  • AI Now Institute: 뉴욕대학교의 이 비영리 단체는 인공 지능의 사회적 영향을 연구합니다. 자세히 알아보려면 여기(ibm.com 외부 링크)를 클릭하세요.
  • DARPA: 미국 국방부 산하 방위 고등 연구 계획국(ibm.com 외부 링크)은 설명 가능한 AI 및 AI 연구를 촉진하는 데 중점을 둡니다.
  • CHAI: Center for Human-Compatible Artificial Intelligence(ibm.com 외부 링크)는 신뢰할 수 있는 AI와 입증 가능한 유익한 시스템을 촉진하기 위한 다양한 기관 및 대학의 협력체입니다.
  • NASCAI: National Security Commission on Artificial Intelligence(ibm.com 외부 링크)는 "미국의 국가 안보 및 국방 문제를 종합적으로 다루기 위해 인공 지능, 머신 러닝 및 관련 기술의 개발을 발전시키는 데 필요한 방법과 수단을 고려"하는 독립적 위원회입니다.
AI 윤리에 대한 IBM의 관점

IBM 또한 자체적으로 AI 윤리에 대한 관점을 확립하였으며, 이를 바탕으로 신뢰와 투명성의 원칙을 만들어 고객이 AI에 관한 논의에서 그 가치를 파악하도록 돕습니다. IBM에는 데이터 및 AI에 대한 접근 방식을 규정하는 세 가지 핵심 원칙이 있습니다.

  1. AI의 목적은 인간의 지능을 증진시키는 것입니다. 다시 말해, 인간의 지능을 AI로 대체하려는 것이 아니라 지원한다는 의미입니다. 모든 새로운 기술 혁신에는 특정 직무 역할의 수요와 공급에 대한 변화가 수반되므로, IBM은 이 기술에 대한 역량 교육을 촉진하는 글로벌 이니셔티브에 투자함으로써 이러한 전환 과정에서 인력을 지원하기 위해 최선을 다하고 있습니다.
  2. 데이터와 인사이트는 이를 생성한 자가 소유합니다. IBM 고객은 그들의 데이터를 단독으로 소유한다는 사실에 대해 안심할 수 있습니다. IBM은 어떤 감시 프로그램의 용도로도 정부에 고객 데이터 액세스 권한을 제공하지 않았고 앞으로도 그럴 것이며, 고객의 개인정보를 보호하기 위해 최선을 다할 것입니다.
  3. AI 시스템은 투명하고 설명 가능해야 합니다. IBM은 기술 회사들이 누가 자체 AI 시스템을 트레이닝했는지, 어떤 데이터가 해당 트레이닝에 사용되었는지, 그리고 무엇보다도 해당 알고리즘의 추천에 무엇이 필요한지를 명확히 해야 한다고 생각합니다.

IBM은 AI 기술의 책임 있는 선택을 안내하기 위해 일련의 중점 영역을 개발했습니다. 예를 들면 다음과 같습니다.

  • 설명가능성: AI 시스템은 특히 알고리즘의 추천에 포함된 내용이 다양한 목표를 가진 여러 이해관계자와 관련되어 있으므로 투명해야 합니다.
  • 공정성: 이는 AI 시스템이 개인 또는 그룹을 공정하고 공평하게 대우한다는 의미입니다. 올바르게 교정된 AI는 인간이 보다 공정한 선택을 하고 인간의 편견에 대응하며 포용성을 촉진하도록 지원할 수 있습니다.
  • 견고성: AI 기반 시스템은 적대적 공격으로부터 능동적으로 방어하여 보안 위험을 최소화하고 시스템 결과에 대한 신뢰도를 높여야 합니다.
  • 투명성: 신뢰를 강화하기 위해 사용자는 서비스 작동 방식을 확인하고, 기능을 평가하며, 강점과 한계를 이해할 수 있어야 합니다.
  • 개인정보 보호: AI 시스템은 이용자의 개인정보 보호와 데이터 권한에 우선순위를 두고 이를 보호해야 하며, 개인 데이터가 어떻게 사용되고 보호되는지에 대해 사용자에게 명시적인 보증을 제공해야 합니다.

이러한 원칙과 중점 영역은 AI 윤리에 대한 IBM의 접근 방식을 뒷받침하고 있습니다. 윤리 및 인공 지능에 대한 IBM의 관점에 대해 자세히 알아보려면 여기를 참조하세요.

 

AI 윤리와 IBM

IBM은 윤리적 지침과 원칙을 염두에 두고 제품이 구성되고 활용되도록 보장합니다. IBM이 고객에게 제공하는 제품 중 하나인 IBM Watson Studio는 윤리적 AI 기준의 감독과 규정 준수를 개선합니다.

IBM Cloud Pak for Data 기반 IBM Watson Studio는 모델을 모니터링하고 관리하여 신뢰할 수 있는 AI를 운영하는 데 도움이 됩니다. 조직은 프로덕션 단계에서 AI 모델을 시각화 및 추적하고, 모델을 검증 및 테스트하여, 규제 위험을 완화하고 AI 수명주기의 가시성을 높일 수 있습니다. 지금 IBMid로 등록하고 무료 IBM Cloud 계정을 생성하세요.

윤리 및 인공 지능에 대한 IBM의 관점에 대해 자세히 알아보려면 여기를 참조하세요.

 

관련 솔루션
IBM Watson Studio

AI 모델을 구축하고 실행하며 관리합니다. 오픈 소스 코드 또는 비주얼 모델링을 사용하여 모든 클라우드에서 데이터를 준비하고 모델을 구축합니다. 결과를 예측하고 최적화합니다.

Watson Studio 살펴보기
IBM® Cloud Pak for Data

Cloud Pak for Data는 클라우드에서 모든 데이터를 AI 및 분석에 사용할 수 있도록 데이터 패브릭을 제공하는 개방형의 확장 가능한 데이터 플랫폼입니다.

IBM® Cloud Pak for Data 살펴보기
IBM AI 윤리

신뢰할 수 있는 AI에 대한 IBM의 접근 방식은 종합적이고 다차원적입니다.

IBM의 AI 윤리 살펴보기
다음 단계

IBM은 윤리적 지침과 원칙을 염두에 두고 제품이 구성되고 활용되도록 보장합니다. IBM이 고객에게 제공하는 제품 중 하나인 IBM Watson Studio는 윤리적 AI 기준의 감독과 규정 준수를 개선합니다. IBM Cloud Pak for Data 기반 IBM Watson Studio는 모델을 모니터링하고 관리하여 신뢰할 수 있는 AI를 운영하는 데 도움이 됩니다. 조직은 프로덕션 단계에서 AI 모델을 시각화 및 추적하고, 모델을 검증 및 테스트하여, 규제 위험을 완화하고 AI 수명주기의 가시성을 높일 수 있습니다.

IBM Watson Studio 자세히 알아보기