어렸을 때 아버지는 늘 “좋은 일을 해라(do good)”고 말씀하셨습니다. 당시 저는 그게 문법적으로 어색해 보여서, “잘 해내라는 뜻이면 do well이 맞는 표현이에요”라며 계속 고쳐드리곤 했습니다. 제 아이들도 그 “do good”이라는 조언을 들으면 저를 놀리곤 하고, 저도 이제는 그 문법적인 부분만큼은 그냥 눈감아 드립니다.
책임감 있는 인공 지능(AI)의 경우, 조직은 피해를 방지하는 능력을 중심 초점으로 우선순위를 두어야 합니다. 일부 조직에서는 '선한 일'을 위해 AI를 사용하고자 할 수도 있습니다. 그러나 때로는 AI가 '선함'에 동의하기 전에 명확한 가드레일이 필요합니다.
확장된 AI 수명 주기 전반에 걸쳐 가드레일을 사용하여 생성형 AI 위험을 해결하는 방법을 알아보려면 "Presidio AI Framework" 문서를 읽어보세요(ibm.com 외부 링크)
생성형 AI가 계속 주류로 자리매김함에 따라 조직은 프로세스를 혁신하고 비용을 절감하며 비즈니스 가치를 높일 수 있는 잠재력에 대해 기대하고 있습니다. 비즈니스 리더들은 고객, 환자, 직원, 파트너 또는 시민에게 보다 효율적으로 서비스를 제공하고 전반적인 경험을 개선하기 위해 비즈니스 전략을 재설계하고자 합니다. 생성형 AI는 전 세계적으로 조직에 새로운 기회와 위험을 동시에 창출하고 있으며, 이러한 과제를 관리하는 데 있어 인적 자원(HR) 리더십이 핵심적인 역할을 하고 있습니다.
AI 도입 증가에 따른 영향에 적응하려면 인사 및 조직 정책은 물론 사회, 직무 기술 및 단체 교섭 노동 계약에 직접적인 영향을 미치는 NIST, EU AI 법, NYC 144, 미국 EEOC 및 백악관 AI 법(이전 링크는 모두 ibm.com 외부 링크)과 같은 복잡한 규제 요건을 준수해야 할 수 있습니다. 책임감 있는 AI를 도입하려면 NIST, OECD, Responsible Artificial Intelligence Institute, Data and Trust Alliance, IEEE(이전 링크는 모두 ibm.com 외부 링크)를 포함한 최고의 국제 리소스에서 확인한 바와 같이 다중 이해관계자 전략이 필요합니다.
업계 뉴스레터
가장 중요하고 흥미로운 AI 뉴스에 대한 선별된 인사이트를 확인하세요. 주간 Think 뉴스레터를 구독하세요. IBM 개인정보 보호정책을 참조하세요.
구독은 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.
HR 리더는 이제 AI 및 기타 기술을 고려하여 현재 업무에 필요한 기술과 미래의 기술에 대해 기업에 조언합니다. WEF에 따르면 고용주들은 향후 5년 내에 근로자의 기술 중 44%가 중단될 것으로 예상하고 있습니다. HR 전문가들은 직원의 업무를 보강하고 더 높은 수준의 업무에 집중할 수 있도록 지원함으로써 생산성을 개선할 수 있는 잠재력을 점점 더 많이 모색하고 있습니다. AI 역량이 확장됨에 따라 모든 비즈니스 리더가 AI를 활용할 때 직원, 파트너 또는 고객이 피해를 입지 않도록 반드시 고려해야 할 윤리적 문제와 질문이 있습니다.
IBM이 조직이 AI를 책임감 있게 운영에 통합할 수 있도록 권장하는 신뢰 및 투명성 원칙을 알아보세요.
근로자 교육과 지식 관리가 이제 IT, 법률, 규정 준수 및 사업 운영자와 함께 여러 이해 관계자의 전략으로 긴밀하게 조정되며, 더 이상 1년에 한 번만 체크하는 것이 아니라 지속적인 프로세스로 진행됩니다. 따라서 HR 리더는 정책을 수립하고 직원의 AI 통찰력을 키우기 위한 프로그램을 개발하고, AI 기능을 적용할 위치를 파악하고, 책임감 있는 AI 거버넌스 전략을 수립하고, 자동화와 같은 도구를 사용하여 신뢰할 수 있고 투명한 AI 도입을 통해 직원에 대한 배려와 존중을 보장하는 데 본능적으로 참여해야 합니다.
AI 도입과 활용 사례는 계속 확대되고 있지만, 조직은 프로세스 및 시스템에 AI 기능을 도입할 때 고려해야 할 많은 사항과 결과에 대해 충분히 대비하지 못하고 있을 수 있습니다. IBM 기업가치연구소(IBV)에 따르면 설문조사에 참여한 경영진의 79%가 전사적인 AI 접근 방식에서 AI 윤리의 중요성을 강조하지만, AI 윤리에 대한 공통 원칙을 운영 중인 기업은 25% 미만인 것으로 나타났습니다.
정책만으로는 디지털 도구의 보급과 사용 증가를 막을 수 없기 때문에 이러한 불일치가 존재합니다. 근로자가 적절한 승인 없이 ChatGPT 또는 기타 블랙박스 공용 모델과 같은 스마트 기기 및 앱을 사용하는 경우가 증가하고 있으며, 관련 위험에 대해 근로자에게 알리는 올바른 변경 관리가 이루어지지 않고 있어 지속적인 문제가 되고 있습니다.
예를 들어, 직원은 이러한 도구를 통해 민감한 고객 데이터를 사용하여 고객에게 이메일을 작성하거나 관리자가 개인 직원 데이터를 공개하는 성과 리뷰를 작성하는 데 사용할 수 있습니다.
이러한 위험을 줄이려면 각 부서, 사업부 및 기능 수준에 책임감 있는 AI 실무 담당자 또는 옹호자를 배치하는 것이 유용할 수 있습니다. 이 사례는 HR이 잠재적인 윤리적 문제와 운영상의 위험을 막기 위한 노력을 주도하고 옹호할 수 있는 기회가 될 수 있습니다.
궁극적으로 회사의 광범위한 가치와 비즈니스 전략에 부합하고 모든 직원에게 전달되는 공통의 가치와 원칙이 있는 책임감 있는 AI 전략을 수립하는 것이 필수적입니다. 이 전략은 직원을 옹호하고 조직이 비즈니스 목표를 추진하는 AI와 혁신을 수용할 수 있는 기회를 식별해야 합니다. 또한 직원들의 교육을 통해 유해한 AI 영향을 방지하고, 허위 정보와 편견을 해결하고, 내부 및 사회 내에서 책임감 있는 AI를 장려해야 합니다.
비즈니스 및 HR 리더가 책임감 있는 AI 전략을 개발할 때 명심해야 할 세 가지 주요 고려 사항은 다음과 같습니다.
다시 말해, 첨단 기술 전략을 세울 때 직원에게 우선순위를 두어야 합니다. 즉, AI가 직원들과 함께 일하는 방식을 파악하고, 직원들에게 AI가 어떻게 각자의 역할을 탁월하게 수행할 수 있는지 구체적으로 전달하고, 일하는 방식을 재정의해야 합니다. 교육이 없다면 직원들은 AI가 자신을 대체하거나 인력을 없애기 위해 도입되는 것에 대해 지나치게 걱정할 수 있습니다. 이러한 모델이 어떻게 구축되는지에 대해 솔직하게 직원들과 직접 소통하세요. HR 리더는 잠재적인 일자리 변화와 AI 및 기타 기술로 인해 창출되는 새로운 범주와 일자리의 현실에 대해 언급해야 합니다.
AI는 단일체가 아닙니다. 조직은 AI를 다양한 방식으로 배포할 수 있으므로 조직에게 책임감 있는 AI가 어떤 의미인지, 어떻게 사용할 계획인지, 어떻게 사용하지 않을 것인지 명확하게 정의해야 합니다. 생성형 AI의 포함 여부에 관계없이 각 AI 사용 사례에서는 OECD 또는 RAII 가이드라인에 따라 투명성, 신뢰, 형평성, 공정성, 견고성 및 다양한 팀 사용과 같은 원칙을 고려하고 설계해야 합니다. 또한 각 모델에 대해 모델 드리프트 및 개인정보 보호 조치를 정기적으로 검토하고 편향성 완화를 위한 구체적인 다양성, 형평성 및 포용성 지표를 검토해야 합니다.
실제로 일부 직원은 질문에 대한 답변, 이메일 초안 작성, 기타 일상적인 작업 수행과 같은 작업을 수행하는 데 도움이 되는 생성형 AI 도구를 이미 실험하고 있습니다. 따라서 조직은 즉시 이러한 도구 사용 계획을 알리고, 이를 사용하는 직원들에게 기대치를 설정하고, 이러한 도구의 사용이 조직의 가치와 윤리에 부합하는지 확인해야 합니다. 또한 조직은 직원들이 AI 지식을 향상시키고 잠재적인 커리어 경로를 이해할 수 있도록 기술 개발 기회를 제공해야 합니다.
조직이 책임감 있게 AI를 도입하는 방법에 대한 자세한 지침은 '생성형 AI를 통한 가치 창출' 백서를 다운로드하세요.
성공적인 도입을 위해서는 책임감 있는 AI를 실행하고 조직에 통합하는 것이 필수적입니다. IBM은 고객 및 파트너와 함께 책임감 있는 AI를 AI 접근 방식의 핵심으로 삼고 있습니다. 2018년 IBM은 윤리적이고 책임감 있고 신뢰할 수 있는 AI 문화를 지원하기 위해 여러 분야를 아우르는 중앙 기관인 AI 윤리 위원회를 설립했습니다. 연구, 사업부, 인사, 다양성 및 포용, 법무, 정부 및 규제 업무, 구매/조달, 커뮤니케이션 등 다양한 부서의 고위급 리더로 구성되어 있습니다. 위원회는 AI 관련 이니셔티브와 결정을 지시하고 집행합니다. IBM은 AI의 장점과 과제를 진지하게 받아들이며, 저희가 하는 모든 일에 책임을 부여합니다.
아버지에게 문법 규칙을 하나만 어기는 것은 허락하겠습니다. AI는 많은 사람의 참여, 가드레일, 감독, 거버넌스 및 AI 윤리 프레임워크와 함께 올바르게 관리될 때 '선한 일'을 할 수 있습니다.
IBM watsonx.governance를 사용하여 어디서나 생성형 AI 모델을 관리하고 클라우드 또는 온프레미스에 배포하세요.
AI에 대한 직원의 확신을 높이고 도입과 혁신을 가속화하고 고객 신뢰를 개선하는 데 AI 거버넌스가 어떻게 도움이 될 수 있는지 알아보세요.
IBM Consulting의 도움을 받아 EU AI 법에 대비하고 책임감 있는 AI 거버넌스 접근 방식을 확립하세요.