EU AI 법안 준비: 올바른 거버넌스 구축

사무실 책상에 앉아 노트북으로 토론하는 여성 동료들의 높은 각도 보기

유럽 인공지능법은 유럽연합 내 인공지능(AI)에 대한 새로운 수준의 인간 감독과 규정 준수를 추진하고 있습니다. 개인정보 보호에 관한 GDPR과 유사하게, EU AI법은 앞으로 전 세계적으로 AI 규제의 기조를 정할 잠재력을 가지고 있습니다.

2024년 초, 27개 회원국으로 구성된 유럽의회는 만장일치로 EU 인공지능 법안을 승인했습니다. 이 법은 현재 입법 절차의 마지막 단계를 거치고 있으며 2024년 하반기에 단계적으로 시행될 예정입니다. 인공지능을 개발, 배포 또는 사용하거나 사용할 계획이 있는 모든 조직은 EU 인공지능 법의 조항을 이해하고 규정을 준수할 준비를 하는 것이 필수적입니다.

AI법은 "실험실에서 시장에 이르기까지 AI 분야의 글로벌 허브로서 유럽의 입지를 강화하고, 유럽의 AI가 설정된 가치와 규칙을 준수하며, AI의 잠재력을 산업용으로 활용하도록 보장"하는 것을 목표로 합니다.

유럽 의회 뉴스

EU AI 법 요약

EU AI 법의 주요 초점은 위험 관리, 데이터 보호, 품질 관리 시스템, 투명성, 인적 감독, 정확성, 견고성 및 사이버 보안 분야의 규정 준수를 강화하는 것입니다. 이 법은 AI 시스템의 개발 및 배포 방식에 투명성과 책임성을 부여하여 시장에 출시되는 AI 제품이 개인이 안전하게 사용할 수 있도록 보장하는 것을 목표로 합니다.

EU AI 법은 의료, 금융, 에너지와 같이 규제가 엄격한 산업을 포함한 산업 전반에 걸쳐 책임감 있게 AI를 개발하고 배포해야 하는 과제를 해결하는 것을 목표로 합니다. 보험, 은행, 소매업과 같이 고객에게 필수적인 서비스를 제공하는 산업의 경우, 이 법은 AI 사용이 고객의 권리에 미치는 영향을 자세히 설명하는 기본권 영향 평가를 사용하도록 요구합니다.

EU AI 법의 초석: 허용할 수 없는 위험을 방지하기 위한 안전장치

EU AI 법은 대규모 언어(LLM) 및 파운데이션 모델과 같은 생성형 AI 시스템을 포함한 범용 AI 모델이 체계적 위험 계층에 기반한 분류 시스템을 준수하도록 요구합니다. 위험 계층이 높을수록 모델 평가, 문서화 및 보고를 포함한 투명성 요구 사항이 더 많습니다. 또한 시스템 위험의 평가 및 완화, 심각한 사고 보고 및 사이버 보안에 대한 보호 제공도 포함되며, 이러한 투명성 요구 사항에는 최신 기술 문서 유지 관리, 모델 학습에 사용되는 콘텐츠 요약 제공, 유럽 저작권법 준수가 포함됩니다.

EU AI 법은 AI 시스템이 개인의 건강, 안전 또는 기본권에 미치는 위험 수준을 계층을 사용하여 분류하는 위험 기반 접근 방식을 따릅니다. 세 가지 계층은 다음과 같습니다.

  • 저위험 시스템들은 법률에서 불투명성 이외에는 거의 다른 요구 사항이 없습니다. 스팸 필터나 비디오 게임과 같습니다. 
  • 고위험 AI 시스템인 자율주행차, 의료 기기 및 중요 인프라(수도, 가스, 전기 등)는 개발자와 사용자가 추가적인 규제 요건을 준수해야 합니다.
    • 위험 관리를 구현하고 정확성, 견고성 및 인적 감독을 포함하는 책임 프레임워크 제공
    • 사용자, 기록 보관 및 기술 문서에 대해 규정된 투명성 요구 사항 충족
  • 거의 예외 없이 금지된 시스템은 사회적 점수, 얼굴 인식, 감정 인식 및 공공 장소의 원격 생체 인식 시스템과 같이 허용할 수 없는 위험을 초래하는 시스템입니다.

EU AI 법은 또한 챗봇을 사용하거나 감정 인식 시스템을 사용할 때 고객에게 알림을 보내는 방법에 대한 규칙을 부과합니다. 딥 페이크에 라벨을 붙이고 미디어에서 생성형 AI 콘텐츠가 사용되는 경우를 식별하기 위한 추가 요구 사항이 있습니다.

EU AI 법을 준수하지 않을 경우 발생할 수 있는 많은 비용:

750만 유로 또는 회사의 전 세계 총 연간 매출액의 1.5%(둘 중 더 높은 금액)가 잘못된 정보 제공으로 인한 것이며, 1,500만 유로 또는 회사의 전 세계 총 연간 매출액의 3%(둘 중 더 높은 금액)가 EU AI법의 의무 위반에 대한 것입니다.

— VentureBeat

유럽 AI 법은 현재 AI 규제에 대한 가장 포괄적인 법적 프레임워크입니다. 전 세계 정부는 시민, 기업 및 정부 기관을 잠재적 위험으로부터 보호하기 위해 AI 기술을 규제하는 방법에 주목하고 적극적으로 논의하고 있습니다. 또한 기업 이사회에서 소비자에 이르기까지 이해 관계자는 AI와 관련하여 신뢰, 투명성, 공정성 및 책임성을 우선시하기 시작했습니다.

IBM과 함께 향후 규정에 대비하기

책임감 있고 투명하며 설명 가능한 AI 워크플로 가속화를 지원하는 IBM watsonx.governance

IBM watsonx.governance™를 사용하면 조직의 AI 활동을 지시, 관리 및 모니터링하는 AI 거버넌스를 가속화할 수 있습니다. 소프트웨어 자동화를 사용하여 위험을 완화하고, 정책 요구 사항을 관리하고, 생성형 AI 및 예측형 머신 러닝(ML) 모델의 수명 주기를 관리할 수 있는 역량을 강화합니다.

Watsonx.Governance는 3가지 주요 영역에서 모델 투명성, 설명 가능성 및 문서화를 촉진하는 데 도움이 됩니다.

  • 규정 준수 AI 투명성을 관리하고 정책 및 표준 준수를 해결하는 데 도움이 됩니다. 데이터를 주요 위험 제어에 연결하고 팩트시트를 사용하여 조회 및 감사를 지원하는 모델 메타데이터의 캡처 및 보고를 자동화하세요.
  • 위험 관리 사전 설정된 위험 임곗값을 통해 AI 모델 위험을 사전에 감지하고 완화하는 데 도움이 됩니다. 공정성, 편차, 편향, 평가 지표에 대한 성과, 유해한 언어 사용 사례 및 개인 식별 정보(PII) 보호를 모니터링합니다. 사용자 기반 대시보드와 보고서를 통해 조직의 위험에 대한 인사이트를 얻으세요.
  • 라이프사이클 거버넌스 — 통합된 워크플로 및 승인을 사용하여 라이프사이클 전반에 걸쳐 생성형 AI 및 예측 머신 러닝 모델을 모두 관리하고, 사용 사례의 상태, 처리 중인 변경 요청, 과제, 문제 및 할당된 작업을 모니터링할 수 있습니다.

고객은 관련 법률 및 규정을 준수할 책임이 있습니다. IBM은 법률 자문을 제공하지 않으며, 자사의 서비스 또는 제품이 고객의 법률 또는 규정 준수 여부를 보장함을 나타내거나 보증하지 않습니다.

 

작가

Heather Gentile

Director of Product, watsonx.governance Risk and Compliance

IBM

관련 솔루션
IBM watsonx.governance

IBM watsonx.governance를 사용하여 어디서나 생성형 AI 모델을 관리하고 클라우드 또는 온프레미스에 배포하세요.

watsonx.governance 살펴보기
AI 거버넌스 솔루션

AI에 대한 직원의 확신을 높이고 도입과 혁신을 가속화하고 고객 신뢰를 개선하는 데 AI 거버넌스가 어떻게 도움이 될 수 있는지 알아보세요.

AI 거버넌스 솔루션 알아보기
AI 거버넌스 컨설팅 서비스

IBM Consulting의 도움을 받아 EU AI 법에 대비하고 책임감 있는 AI 거버넌스 접근 방식을 확립하세요.

AI 거버넌스 서비스 살펴보기
다음 단계 안내

단일 포트폴리오를 통해 AI에 지시하고, AI를 관리 및 모니터링하여 신뢰할 수 있고 투명하며 설명 가능한 AI를 가속하세요.

watsonx.governance 살펴보기 라이브 데모 예약하기