AI 권리장전은 인공지능(AI) 시대에 미국인의 시민권을 보호하기 위해 미국 정부가 발표한 프레임워크입니다.
AI 권리장전은 2022년 10월 백악관 과학기술정책국(OSTP)에서 'AI 권리장전을 위한 청사진: 미국인을 위한 자동화된 시스템 만들기'라는 제목의 문서를 통해 소개되었습니다. 청사진이라고도 불리는 AI 권리장전은 다양한 학계, 인권 단체, 비영리 단체 및 민간 기업의 자문을 거쳐 작성되었습니다.
AI 권리장전은 자동화된 시스템의 배포 및 거버넌스에서 시민의 권리를 보호하고 민주적 가치를 증진하는 정책 및 관행의 개발을 지원하기 위한 것입니다. 이를 달성하기 위해 청사진은 알고리즘 차별과 같은 잠재적 위험을 완화하기 위한 5가지 원칙을 제시합니다. 또한 의료, 금융 서비스 등의 분야에 AI를 배포함으로써 발생할 수 있는 중요한 리소스나 서비스에 대한 액세스 문제도 해결합니다.
AI 권리장전은 AI 시스템의 설계, 사용 및 배포를 안내하는 데 도움이 되는 5가지 핵심 원칙으로 구성되어 있습니다. 언론의 자유, 투표권 또는 사생활과 같은 사람들의 시민권이 위험에 처할 수 있는 다양한 상황을 고려하여 각 원칙에 걸쳐 구체적인 고려 사항이 제공됩니다.
이 청사진은 구속력이 없고 핵심 원칙 준수를 의무화하지는 않지만, 기존 법률이나 정책이 아직 지침을 제공하지 않는 경우 AI 관련 정책 결정에 정보를 제공하기 위한 것입니다.
AI 권리장전은 자동화 시스템이 미국 국민의 권리, 기회 또는 중요한 자원이나 서비스에 대한 접근에 의미 있는 영향을 미칠 가능성이 있는 경우 적용됩니다. AI 권리장전의 범위에 포함될 수 있는 자동화 시스템 유형에는 다음과 같은 영향을 미칠 수 있는 시스템이 포함되지만 이에 국한되지는 않습니다.
시민권, 자유 및 개인정보 보호: 여기에는 음성 관련 시스템(예: 자동화된 콘텐츠 검토 도구), 감시 및 형사 사법 시스템 알고리즘(예: 자동화된 번호판 판독기), 투표 관련 시스템(예: 서명 매칭 도구), 개인정보에 영향을 미칠 가능성이 있는 시스템(예: 광고 타겟팅 시스템)이 포함됩니다.
평등한 기회: 여기에는 교육 관련 시스템(예: 표절 감지 소프트웨어), 주택 관련 시스템(예: 세입자 선별 알고리즘), 고용 관련 시스템(예: 고용 또는 해고 알고리즘)이 포함됩니다.
중요 자원 및 서비스에 대한 접근: 여기에는 건강 및 건강 보험 기술 (예: AI 지원 진단 도구), 금융 시스템 알고리즘 (예: 신용 점수 시스템), 지역사회의 안전에 영향을 미치는 시스템 (예: 전력망 제어), 혜택이나 서비스 이용 또는 과태료 부과와 관련된 시스템(예: 사기 탐지 알고리즘)이 포함됩니다.
머신 러닝(ML) 및 자연어 처리(NLP)와 같은 기술이 더욱 정교해짐에 따라 AI 사용 사례가 증가하고 있습니다. Ernst and Young의 한 연구에서 응답자의 90%가 직장에서 AI를 사용한다고 답했습니다.1 그러나 AI가 널리 채택되면서 투명성, 편향성, 및 데이터 개인정보 보호와 관련된 새로운 윤리적 문제도 발생합니다. 예를 들면 다음과 같습니다.
이러한 문제를 해결하려면 AI 개발자는 책임감 있는 AI 사용을 중심으로 구축된 가이드와 윤리적 프레임워크가 필요합니다. 책임감 있는 AI는 AI의 설계, 개발, 배포 및 사용을 안내하는 데 사용되는 일련의 원칙입니다. 이는 AI 시스템의 광범위한 사회적 영향과 AI를 이해관계자의 가치, 법적 표준 및 윤리 원칙에 맞추는 데 필요한 조치를 고려합니다.
이 청사진은 사회가 사람들의 기본적인 시민자유를 침해하지 않으면서도 AI 도구의 잠재력을 최대한 활용할 수 있도록 책임감 있는 AI 모범 사례를 포괄적인 프레임워크로 제시하고자 합니다.
AI 권리장전은 미국 국민의 시민권을 염두에 두고 고안된 5가지 원칙으로 구성되어 있습니다. 5가지 원칙은 다음과 같습니다.
이 원칙은 "사람들이 알고리즘에 의해 차별을 받아서는 안 되며, 시스템은 공평한 방식으로 사용 및 설계되어야 한다"고 명시하고 있습니다. AI 권리장전에 따르면 알고리즘 차별은 자동화된 시스템이 인종, 성적 지향, 장애 여부 및 기타 법으로 보호되는 특성에 따라 사람들에게 부정적인 영향을 미칠 때 발생합니다. 이 문제를 해결하기 위해 이 원칙은 자동화된 시스템의 작성자가 고위험 개인과 커뮤니티를 보호하기 위해 형평성 평가, 대표 데이터 및 격차 테스트와 같은 조치를 사용할 것을 제안합니다. 또한 이 원칙은 독립적인 제3자 감사를 권장합니다.
이 원칙에는 "내장된 보호 기능을 통해 사람들을 데이터 남용으로부터 보호해야 하며", 사람들이 "[본인에 관한] 데이터가 어떻게 사용되는지 선택할 수 있어야 한다"고 명시되어 있습니다. 이 원칙에 따라 청사진에서는 AI 개발자가 꼭 필요할 때만 개인 식별 정보(PII)를 수집하도록 하는 설계를 통해 사용자와 개인정보를 보호할 것을 제안합니다. 또한, 이 원칙은 개발자가 허가와 동의를 요청하는 방식을 간단하고 이해하기 쉽게 만들어야 하고, 데이터 사용, 액세스, 전송, 삭제와 관련된 결정을 존중해야 한다고 제안합니다.
업무, 상황, 형사 사법 등과 같은 민감한 정보에 대해 보호 및 제한을 강화해야 합니다. 또한 이 청사진은 시민의 사생활과 시민의 자유를 보호하기 위해 감시 기술에 대한 감독을 강화해야 한다고 명시하고 있습니다.
이 원칙에는 사람들이 "자동화된 시스템이 사용되고 있다는 것을 알아야 하며, 이것이 [본인에게] 영향을 미치는 결과에 어떻게 그리고 왜 기여하는지 이해할 수 있어야 한다"고 명시되어 있습니다. 이외에도 AI 권리장전에는 자동화 시스템의 설계자, 개발자, 배포자가 평이하고 쉬운 언어를 사용해 시스템의 기능과 자동화가 수행하는 역할을 설명해야 한다고 명시되어 있습니다. 또한, 이 원칙은 자동화된 시스템이 사용 중일 때는 알림을 전송하고, 이것이 개인에게 영향을 미치는 결과에 어떻게, 그리고 왜 기여하는지 명확하게 설명해야 한다고 말합니다.
이 원칙은 사람들이 "적절한 경우 옵트아웃할 수 있어야 하며, 직면한 문제를 신속하게 검토하고 해결할 수 있는 사람과 연락할 수 있어야 한다"고 명시합니다. 청사진에 따르면 무엇이 '적절한지'에 대한 판단은 구체적인 맥락에서 '합리적인 기대'를 기반으로 해야 하며, 광범위한 접근성을 보장하고 잠재적 피해로부터 보호하는 데 초점을 맞춰야 합니다. 이 원칙에 부합하려면 특히 자동화된 시스템이 실패하거나 오류가 발생하거나 누군가 그 영향에 대해 이의를 제기하고자 할 때, 폴백 및 에스컬레이션 프로세스를 통해 인적 고려와 해결책을 적시에 제시해야 한다고 제안합니다.
기술 관련 문서 'From Principles to Practice'가 청사진과 함께 출판되었습니다. 이 보고서는 정부, 산업계, 지역 사회가 자동화 시스템의 정책, 관행 또는 기술 설계에 5가지 원칙을 포함시키기 위해 취할 수 있는 사례와 단계를 제공합니다.
AI 권리장전과 기술적 동반자는 각 원칙이 왜 중요한지, 자동화 시스템에 무엇을 기대해야 하는지, 각 원칙이 어떻게 실천될 수 있는지 설명합니다. 제공된 사례는 비평이나 지지가 아니라 조직이 자체 AI 운영 및 의사 결정에 안전 장치를 통합하도록 영감을 주기 위한 것입니다.
워싱턴 DC에서 발표된 후, AI 권리장전은 여러 연방 기관이 책임감 있는 AI 사용을 위한 가이드라인을 채택하는 데 부분적으로 영향을 미쳤을 수 있습니다. 이 글을 작성하는 현재 미국 상무부(DOC)와 미국 국립표준기술연구소(NIST)를 포함한 12개 미국 정부 기관은 법률, 정책 및 국가 안보에 걸쳐 AI 요구 사항을 가지고 있습니다.
2023년 10월 30일, 바이든 행정부는 안전하고 신뢰할 수 있는 AI에 대한 새로운 표준을 확립하기 위한 행정 명령을 발표했습니다. 6개월 후 발표된 보도 자료에서 DOC는 행정 명령을 이행하기 위한 몇 가지 계획을 발표했습니다.4
주 정부 차원에서는 정책 입안자들이 일부 측면에서 새로운 법안을 청사진과 일치시키고 있는 것으로 보입니다. 2021년, 뉴욕은 고용주가 채용 과정에서 AI 기술을 사용할 때 이를 고지하는 등의 요건을 담은 법률을 채택했습니다. 현재 몇몇 주에서는 법 집행 기관에서 얼굴 인식 기술을 사용하는 데 필요한 요건을 규정하고 있습니다. 그리고 최근에는 캘리포니아 시민권위원회가 공정 고용 및 주택법(FEHA)에 대한 개정안을 제안하여 FEHA를 AI 권리장전과 더욱 일치시켰습니다.
이 글을 쓰는 시점 기준으로 미국 이외의 국가에서는 34개 국가가 국가 AI 전략을 수립했습니다.5 특히 유럽연합의 인공지능법(EU AI 법)은 EU에서의 AI 개발 또는 사용을 규율합니다. 이 법은 규제에 대한 위험 기반 접근 방식을 취하여 AI가 제기하는 위험에 따라 AI에 다른 규칙을 적용합니다.
AI 권리장전에서 제안하는 보호 사항 중 일부는 이미 미국 헌법에 의해 요구되거나 현행 미국 법률에 따라 존재합니다. 예를 들어, '데이터 개인정보 보호' 원칙에 언급된 정부 감시는 이미 법적 요건과 사법의 감독을 받고 있으며, 민권법은 미국 국민을 차별로부터 보호하기 위해 존재합니다.
청사진이 준수하는 다른 AI 표준의 예는 다음과 같습니다.
AI 권리장전에 명시된 보호를 보장하기 위해 새로운 정책과 관행이 채택될 수 있습니다. 청사진은 경우에 따라 기존 법률을 준수하거나 특정 사용 사례의 현실에 부합하거나 상충하는 공익의 균형을 맞추기 위해 원칙에 대한 예외가 필요할 수 있음을 인정합니다. 예를 들어, 법 집행 기관 및 기타 정부 기관은 AI 권리장전에 명시된 가이드라인을 따르는 것이 좋습니다. 그러나 사람들의 권리와 개인정보를 보호하기 위해 다른 방법을 사용해야 할 수도 있습니다.
앞으로 AI 권리장전은 세계 각국이 책임감 있는 AI에 대한 보다 총체적인 접근 방식을 채택함에 따라 다음 정책 물결에 영향을 미치는 데 중요한 역할을 할 수 있습니다.
IBM watsonx.governance를 사용하여 어디서나 생성형 AI 모델을 관리하고 클라우드 또는 온프레미스에 배포하세요.
AI에 대한 직원의 확신을 높이고 도입과 혁신을 가속화하고 고객 신뢰를 개선하는 데 AI 거버넌스가 어떻게 도움이 될 수 있는지 알아보세요.
IBM Consulting의 도움을 받아 EU AI 법에 대비하고 책임감 있는 AI 거버넌스 접근 방식을 확립하세요.
1 조직이 급증하는 AI 사용이 불안감을 조장하는 것을 멈출 수 있는 방법, Ernst & Young, 2023년 12월.
2 인공지능으로 무고한 사람들이 수감될 위험에 처해 있다, Innocence Project, Sanford, 2024년 2월 14일.
3 Artificial Hallucinations in ChatGPT: Implications in Scientific Writing, National Library of Medicine, Muacevic, Adler, 2023년 2월 19일.
4 상무부, AI에 관한 바이든 대통령의 행정 명령 이행을 위한 새로운 조치 발표, 미국 상무부, 2024년 4월 29일.
5 A cluster analysis of national AI Strategies, Brookings, Denford, Dawson, Desouza, 2023년 12월 13일.