신뢰할 수 있는 AI를 위한 툴

업무 중인 소프트웨어 개발자

ChatGPT로 부정행위를 하는 학생을 적발할 수 있는 새로운 도구가 개발되었습니다. 99.9% 효과적입니다. 하지만 OpenAI는 윤리적인 문제로 인해 이를 공개하지 않고 있습니다.

이는 AI가 직면한 주요 과제 중 하나를 보여주는 한 가지 예일 뿐입니다. 기술이 윤리적으로 사용되는지 확인하기 위해 어떻게 모니터링할 수 있을까요?

지난 몇 년 동안 AI 분야의 유명 기업들은 자사의 기술을 책임감 있게 사용하도록 노력해 왔습니다. AI를 윤리적으로 사용하는 것은 기업이 해야 할 올바른 일일 뿐만 아니라 소비자가 원하는 일이기도 합니다. 실제로 IBM 글로벌 AI 채택 지수에 따르면 86%의 기업은 고객이 윤리적 가이드라인을 사용하고 데이터 및 AI 모델 사용 방식을 명확히 하는 기업을 선호한다고 답했습니다.

IBM의 신뢰할 수 있는 AI 글로벌 리더인 Phaedra Boinodiris는 "우리 모두는 기업들이 [AI를 윤리적으로 사용하는 것에 대해] 인식하고 있기를 바라고 있습니다."라고 말합니다. "더 큰 문제는 기업과 다른 조직이 배포한 AI의 안전하고 책임감 있는 결과에 대해 책임을 지는 것이 왜 중요한가 하는 것입니다." 

AI 윤리 도구가 도움이 될까요? 도구 자체가 편향되어 있나요? 최신 연구 내용을 간략히 살펴보겠습니다.

전문가가 전하는 최신 AI 트렌드

가장 중요하고 흥미로운 AI 뉴스에 대한 선별된 인사이트를 확인하세요. 주간 Think 뉴스레터를 구독하세요. IBM 개인정보 보호정책을 참조하세요.

감사합니다! 구독이 완료되었습니다.

구독은 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.

딥페이크 탐지기

딥페이크 사기 시도는 2022년부터 2023년까지 3000% 증가했으며 점점 더 정교해지고 있습니다. 2월에는 홍콩의 다국적 기업의 재무 담당자가 속아서 해당 기업의 CFO를 포함한 여러 딥페이크 캐릭터와 화상 회의를 진행한 범죄자들에게 2,500만 달러를 지불한 사건이 발생했습니다.

5월에 OpenAI는 허위 정보 연구자들에게 자체 딥페이크 탐지 도구를 공개했다고 발표했습니다. 이 도구는 DALL-E 3에서 생성된 이미지의 98.8%를 식별할 수 있었습니다. OpenAI는 또한 구글, 어도비 등과 함께 미디어 콘텐츠의 역사와 출처를 인증하는 표준을 개발하는 산업 연합체인 콘텐츠 출처 및 진위 연합(C2PA)의 운영위원회에 참여했습니다. 

이러한 표준이 정해질 때까지 기업들은 그 공백을 메울 수 있는 도구를 개발하고 있습니다. 8월에 McAfee는 McAfee Deepfake Detector를 발표했습니다. 이 도구는 심층 신경망 모델을 사용하여 브라우저에서 재생되는 비디오에서 가짜 AI 오디오를 찾아냅니다. 2022년 Intel은 비디오 픽셀의 혈류를 분석하여 96%의 정확도로 딥페이크와 사람을 구분하는 FakeCatcher를 출시했습니다. 그리고 그들은 혼자가 아닙니다. 이 분야의 주목할 만한 스타트업으로는 뉴욕의 Reality Defender, 이스라엘의 Clarity, 에스토니아에 본사를 둔 Sentinel이 있으며, 이들 모두 AI를 활용해 다양한 딥페이크에서 패턴을 발견하는 스캔 도구를 보유하고 있습니다.

딥페이크 감지 기술이 매우 빠른 속도로 발전하고 있으므로 잠재적인 알고리즘 편향을 염두에 두는 것이 중요합니다. 컴퓨터 과학자이자 딥페이크 전문가인 Siwei Lyu와 버팔로 대학교의 그의 팀은 편견을 최소화하도록 설계된 최초의 딥페이크 탐지 알고리즘을 개발했습니다. UB 연구진은 탐지 알고리즘에서 가짜로 판별된 수백 명의 얼굴을 사진 콜라주로 만들었는데, 그 결과 전체적으로 피부 톤이 어둡게 나타났습니다.

"딥페이크는 소외된 소수 집단을 공격하는 데 사용될 수 있으므로 탐지 기술이 이들을 보호하지 못하는 일이 없도록 하는 것이 중요합니다."라고 Lyu는 말합니다. 딥페이크 탐지의 미래는 어떻게 될까요? "딥페이크의 기반이 되는 생성형 AI 기술은 의심할 여지없이 계속 성장할 것이므로, 딥페이크의 수와 품질, 형태가 점점 더 다양해질 것입니다. 미래의 [탐지] 기술에는 오용 가능성을 줄이기 위해 더 많은 가드레일이 장착될 것으로 기대합니다."

AI 아카데미

AI 신뢰도, 투명성 그리고 거버넌스

AI 신뢰도가 AI 분야에서 가장 중요한 주제라는 데는 거의 모든 사람이 동의할 겁니다. 동시에, AI 신뢰도는 다루기에 너무 벅찬 주제이기도 합니다. 할루시네이션, 편견, 위험과 같은 문제를 분석하고 윤리적이면서도 책임감 있고 공정한 방식으로 AI를 도입하는 방법을 함께 살펴보겠습니다.

안면 인식 방지(AFR) 기술

얼굴 인식 시스템은 사용자의 신원을 인증하는 편리한 방법으로 점점 더 보편화되고 있지만, 이러한 시스템은 오랫동안 인종 편견부터 데이터 프라이버시까지 다양한 윤리적 문제를 안고 있습니다. "일부 편견은 여러 겹의 편견이 복합적으로 얽혀 있어 문제를 더욱 복잡하게 만듭니다."라고 AI 윤리 싱크탱크 Artificiality의 공동 설립자인 Helen Edwards는 지적합니다.

5월에는 호주의 얼굴 인식 스타트업 Outabox의 데이터가 유출되어 백만 명 이상의 사용자의 생체 데이터가 유출되었습니다. 올해 초에는 Android 및 iOS 디바이스를 겨냥한 트로이 목마 GoldPickAxe가 은행 계좌에 침입하기 위해 얼굴 데이터를 캡처하는 것이 적발되었습니다.

얼굴 생체 인식 데이터를 보호하기 위한 유망한 접근 방식은 사람의 눈으로는 인식할 수 없지만 인식 시스템을 혼동시키는 방식으로 데이터를 뒤섞는 것입니다. 이를 위한 첫 번째 도구 중 하나는 시카고 대학교에서 개발한 프로젝트인 Fawkes였습니다. 가이 포크스 가면의 이름을 딴 이 프로그램은 픽셀을 미묘하게 변경하여 사진을 은폐하도록 설계되었습니다. 프로젝트 웹사이트에서 무료로 다운로드할 수 있습니다.

최근에는 절강 대학교 USSLAB 연구원들이 카메라 센서 수준에서 AFR을 달성하는 것을 목표로 하는 CamPro를 개척했습니다. CamPro는 활동 인식과 같은 다른 애플리케이션을 방해하지 않고 얼굴 식별을 0.3%로 줄이는 이미지를 생성합니다.

AI 쓰기 감지기

기업과 교육 기관에서 AI가 생성한 글을 발견하는 것은 여전히 어려운 과제입니다. 리딩 대학교에서 실시한 블라인드 테스트에서는 5개의 다른 심리학 모듈에 실제 학생들이 작성한 시험과 ChatGPT로 작성된 시험이 섞여 있었습니다. 6월 연구에 따르면 ChatGPT 시험 답안의 94%는 시험을 채점하는 사람들이 발견하지 못한 것으로 나타났습니다. 또한 AI로 생성한 시험은 학생 시험보다 평균 반 등급 더 높았습니다.

이 문제를 해결하기 위해 다양한 AI 글쓰기 탐지기가 시장에 쏟아져 나와 있으며, 반복과 완벽한 문법 같은 AI 생성 텍스트의 공통 특징을 찾고 있습니다. 하지만 전문가들은 아직 신뢰할 수 없으며 편향을 자주 보인다고 경고합니다.

작년 스탠포드 연구에서는 AI 탐지기가 비원어민 영어 사용자의 글쓰기를 평균 61.3%의 확률로 표시했지만, 원어민 영어 사용자의 글을 평가할 때는 훨씬 적은 오류를 범했다고 밝혔습니다.

AI가 생성한 글을 자기 것으로 속이는 것은 부정직할 뿐만 아니라 때로는 표절이 되어 심각한 법적 처벌을 초래할 수 있습니다. 이러한 우려 때문에 일부 회사에서는 AI 글쓰기 감지기를 사용하여 작성자의 카피를 테스트하고 있습니다. 이로 인해 기업들은 작가들이 AI가 생성한 카피를 자신의 창작물인 것처럼 속여 작가들의 평판과 경력을 훼손하는 사례가 발생하고 있습니다.

LLM 바이어스 감지기

데이터 세트에는 종종 그것을 만드는 사람들의 무의식적인 편견이 포함되어 있습니다. 이것이 바로 알고리즘 편향이 이 데이터를 학습하는 LLM에서 지속적인 문제인 이유입니다.

한 예로, 코넬 대학의 연구자들은 ChatGPT와 Alpaca를 사용하여 남성과 여성을 위한 추천서를 작성했는데, 추천서에서는 남성에게 유리한 상당한 편향이 나타났습니다. "Kelly는 따뜻한 사람입니다"와 "Joseph는 롤 모델입니다"와 같은 생성된 언어는 이러한 편견이 직장 내 여성에게 어떤 영향을 미칠 수 있는지 보여주었습니다.

연구원들은 편견을 표시하고 완화할 수 있는 방법을 찾기 위해 노력하고 있습니다. 일리노이 대학교 Urbana-Champaign의 팀은 주어진 분포에서 샘플링된 프롬프트에 대해 입증 가능한 LLM 편향 측정을 생성하고 API 및 오픈 소스 LLM 모두에 사용할 수 있는 QuaCer-B를 개발했습니다.

"현재 AI 업계는 작은 벤치마크 입력 세트에서 모델을 테스트하여 모델의 안전성과 신뢰성을 평가하는 데 의존하고 있습니다."라고 QuaCer-B의 수석 연구원 중 한 명인 UIUC의 Gagandeep Singh 교수는 말합니다. "그러나 벤치마크 입력에서 안전하게 생성된다고 해서 실제 세계에서 보이지 않는 다양한 시나리오를 처리할 때 LLM으로 생성된 콘텐츠가 윤리적이라고 보장할 수는 없습니다. QuaCer-B를 통해 LLM 개발자는 실제 배포에 대한 모델의 적합성에 대해 정보에 입각한 결정을 내리고 실패 원인을 파악하여 모델을 개선할 수 있습니다."

AI가 계속 발전함에 따라 새로운 윤리적 문제도 함께 진화할 것입니다. 비윤리적인 기술 사용을 신고, 모니터링 및 방지하는 도구는 시작에 불과하지만, AI 윤리 전문가들은 이를 원스톱 솔루션으로 간주하지 않습니다.

"어려운 부분은 올바른 도구를 구입하지 않는 것입니다."라고 Boinodiris는 덧붙입니다. "책임감 있게 AI를 큐레이팅하는 것은 총체적인 접근이 필요한 사회기술적 과제입니다. 그리고 이 방정식에서 가장 어려운 부분은 사람입니다."

"신중한 규제와 집행 외에도 윤리적 AI의 핵심은 시판 후 감사, 지속적인 성능 모니터링, 위험 최소화입니다."라고 유엔과 EU의 응용 윤리 및 책임감 있는 AI 자문위원이자 Eticas.ai의 설립자인 Gemma Galdón-Clavell은 설명합니다. "자동차 산업을 생각해 보세요. 경고등과 근접 센서는 운전자가 충돌을 피하는 데 도움이 될 수 있지만, 도로를 최대한 안전하게 주행하기 위해서는 안전벨트, 에어백, 정기적인 점검이 필요합니다."

 
관련 솔루션
IBM watsonx.governance

IBM watsonx.governance를 사용하여 어디서나 생성형 AI 모델을 관리하고 클라우드 또는 온프레미스에 배포하세요.

watsonx.governance 살펴보기
AI 거버넌스 솔루션

AI에 대한 직원의 확신을 높이고 도입과 혁신을 가속화하고 고객 신뢰를 개선하는 데 AI 거버넌스가 어떻게 도움이 될 수 있는지 알아보세요.

AI 거버넌스 솔루션 알아보기
AI 거버넌스 컨설팅 서비스

IBM Consulting의 도움을 받아 EU AI 법에 대비하고 책임감 있는 AI 거버넌스 접근 방식을 확립하세요.

AI 거버넌스 서비스 살펴보기
다음 단계 안내

단일 포트폴리오를 통해 AI에 지시하고, AI를 관리 및 모니터링하여 신뢰할 수 있고 투명하며 설명 가능한 AI를 가속하세요.

watsonx.governance 살펴보기 라이브 데모 예약하기