보험 분야에서 AI의 위험과 한계

직장에서 함께 노트북을 사용하는 HR 동료들의 모습

인공 지능(AI)이 양극화되고 있습니다. 이는 미래학자를 흥분시키고 보수주의자에게는 두려움을 불러일으킵니다. 이전 게시물에서는 차별적 AI와 생성형 AI의 다양한 능력에 대해 설명했고, AI가 보험사와 피보험자의 상호 작용 방식을 변화시킬 수 있는 기회의 세계를 개략적으로 설명했습니다. 이 블로그에서는 논의를 계속하면서 AI 도입의 위험을 조사하고 AI 도입에 대한 안전하고 현명한 대응을 위한 조치를 제안합니다.

전문가가 전하는 최신 AI 트렌드

가장 중요하고 흥미로운 AI 뉴스에 대한 선별된 인사이트를 확인하세요. 주간 Think 뉴스레터를 구독하세요. IBM 개인정보 보호정책을 참조하세요.

감사합니다! 구독이 완료되었습니다.

구독은 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.

AI의 위험과 한계

보험에서의 AI 도입과 관련된 위험은 크게 기술 및 사용이라는 두 가지 카테고리로 나눌 수 있습니다.

기술적 위험—데이터 기밀성

가장 큰 기술적 위험은 데이터 기밀성 문제입니다. AI 개발로 인해 전례 없는 규모로 정보를 수집, 저장 및 처리할 수 있게 되면서 다른 사람의 동의 없이 저렴한 비용으로 개인 데이터를 식별, 분석 및 사용할 수 있게 되었습니다. AI 기술과의 상호 작용으로 인한 개인 정보 유출 위험은 소비자의 우려와 불신의 주요 원인입니다.

AI가 데이터를 조작하여 새로운 콘텐츠를 만드는 생성형 AI의 출현은 기업 데이터 기밀성에 추가적인 위험을 초래합니다. 예를 들어, Chat GPT와 같은 생성형 AI 시스템에 기업 데이터를 공급하여 기밀 기업 연구의 요약을 생성하면 데이터 발자국이 AI의 외부 클라우드 서버에 지워지지 않고 남아 경쟁업체의 쿼리에 액세스할 수 있습니다.

기술적 위험—보안

AI 알고리즘은 학습 데이터를 최적화하여 AI에 인사이트를 제공할 수 있는 기능을 제공하는 매개변수입니다. 알고리즘의 매개변수가 유출되면 제3자가 모델을 복사할 수 있어 모델 소유자에게 경제적, 지적 재산 손실이 발생할 수 있습니다. 또한 AI 알고리즘 모델의 매개변수가 사이버 공격자에 의해 불법적으로 수정될 경우 AI 모델의 성능이 저하되어 바람직하지 않은 결과를 초래할 수 있습니다.

기술 위험—투명성

AI 시스템, 특히 생성형 AI의 블랙박스 특성으로 인해 AI 알고리즘의 의사 결정 프로세스는 이해하기 어렵습니다. 결정적으로 보험 부문은 금융 규제를 받는 산업으로, 알고리즘의 투명성, 설명 가능성 및 감사 가능성이 규제 기관에 매우 중요합니다.

사용 위험 - 부정확성

AI 시스템의 성능은 학습하는 데이터에 따라 크게 달라집니다. AI 시스템이 부정확하거나 편향된 또는 표절된 데이터를 기반으로 학습되면 기술적으로 잘 설계되었더라도 바람직하지 않은 결과를 초래할 수 있습니다.

사용 위험—남용

AI 시스템은 분석, 의사 결정, 조정 및 기타 활동에서 올바르게 작동할 수 있지만 여전히 남용의 위험이 있습니다. 운영자의 사용 목적, 사용 방법, 사용 범위 등은 왜곡되거나 일탈될 수 있으며, 이는 역효과를 초래하는 것을 의미합니다. 한 가지 예는 사람들의 움직임을 불법으로 추적하는 데 얼굴 인식을 사용하는 것입니다.

사용 위험—과도한 의존

AI에 대한 과도한 의존은 사용자가 잘못된 AI 추천을 받아들이기 시작하여 커미션 오류를 범할 때 발생합니다. 사용자는 AI가 무엇을 할 수 있는지, 얼마나 잘 수행할 수 있는지 또는 어떻게 작동하는지에 대한 인식이 부족하기 때문에 적절한 신뢰 수준을 결정하는 데 어려움을 겪습니다. 이러한 위험의 결과는 AI 사용자의 기술 개발이 약화된다는 것입니다. 예를 들어, 새로운 상황을 처리하거나 다양한 관점을 고려하는 능력이 저하되거나 AI가 접근할 수 있는 케이스로만 제한되는 보험금 지급 심사 담당자의 경우입니다.

AI 아카데미

AI 전문가 되기

비즈니스 성장을 주도하는 AI 투자의 우선순위를 정할 수 있는 지식을 확보하세요. 지금 바로 무료 AI 아카데미를 시작하고 조직에서 AI의 미래를 주도하세요.

AI 위험 완화

AI 도입으로 인한 위험은 AI 도입으로 인한 기술 및 사용 위험을 완화하기 위한 거버넌스 접근 방식을 개발해야 할 필요성을 강조합니다.

인간 중심 거버넌스

사용 위험을 완화하기 위해 다음과 같은 세 가지 접근 방식이 제안됩니다.

  1. AI 툴을 개발, 선택 또는 사용하는 데 참여하는 직원이 기대에 부응할 수 있도록 필수 인식을 높이는 교육 프로그램부터 시작하세요.
  2. 그런 다음 공급업체 평가 체계를 수행하여 공급업체 통제의 견고성을 평가하고 계약에 성문화된 적절한 투명성을 보장합니다.
  3. 마지막으로, AI 개발 라이프사이클 전반에 걸쳐 규범, 역할 및 책임, 승인 프로세스 및 유지 관리 지침을 설정하는 정책 시행 조치를 수립합니다.

기술 중심 거버넌스

기술적 위험을 완화하려면 다음 사항을 고려하여 IT 거버넌스를 확장해야 합니다.

  1. 확장된 데이터 및 시스템 분류. 이것은 AI 모델이 데이터 입력 및 사용 패턴, 필요한 유효성 검사 및 테스트 주기, 아웃풋을 캡처하도록 하기 위한 것입니다. 모델을 내부 서버에 호스팅하는 것이 좋습니다.
  2. 영향의 규모, 취약성 수준, 모니터링 프로토콜의 범위를 정량화하기 위한 위험 등록부입니다.
  3. 정기적으로 테스트를 실행하여 AI 시스템 입력, 아웃풋 및 모델 구성 요소와 관련된 위험 문제를 모니터링하는 확장된 분석 및 테스트 전략

보험의 AI - 정확성과 불가피성

보험 분야에서 AI의 가능성과 잠재력은 점점 더 크고 복잡한 보험 계리 및 보험금 청구 데이터 세트에서 새로운 인사이트를 도출하는 능력에 있습니다. 이러한 데이터 세트는 행동 및 생태 데이터와 결합되어 AI 시스템이 데이터베이스를 쿼리하여 잘못된 데이터 추론을 도출하여 실제 보험 결과를 초래할 수 있는 가능성을 만들어냅니다.

효율적이고 정확한 AI를 위해서는 까다로운 데이터 과학이 필요합니다. 이를 위해서는 데이터베이스의 지식 표현을 신중하게 큐레이션하고, 데이터 매트릭스를 분해하여 차원을 줄이고, 누락되거나 중복되며 이상치인 데이터의 혼란스러운 영향을 완화하기 위해 데이터 세트를 사전 처리해야 합니다. 보험 AI 사용자는 입력 데이터 품질 제한이 보험에 영향을 미쳐 보험 계리 분석 모델의 정확도를 저하시킬 수 있다는 점을 인식해야 합니다. 

AI 기술이 계속 발전하고 사용 사례가 확대됨에 따라 보험사는 이 기술을 주저해서는 안 됩니다. 하지만 보험사는 보험 분야 전문성을 AI 기술 개발에 기여해야 합니다. 입력 데이터의 출처를 알리고 데이터 품질을 보장하는 능력은 보험 업계에 AI를 안전하고 통제된 방식으로 적용하는 데 기여할 것입니다.

보험 분야에서 AI를 도입하는 여정을 시작하면서 보험 사례를 탐색하고 생성하세요. 무엇보다 강력한 AI 거버넌스 프로그램을 도입하세요.

 
관련 솔루션
IBM® watsonx.ai

AI 빌더를 위한 차세대 엔터프라이즈 스튜디오인 IBM watsonx.ai로 생성형 AI, 파운데이션 모델 및 머신 러닝 기능을 학습, 검증, 조정 및 배포하세요. 적은 데이터로 짧은 시간 내에 AI 애플리케이션을 구축하세요.

watsonx.ai 살펴보기
인공 지능 솔루션

업계 최고의 AI 전문성과 솔루션 포트폴리오를 보유한 IBM과 함께 AI를 비즈니스에 활용하세요.

AI 솔루션 살펴보기
인공 지능(AI) 컨설팅 및 서비스

IBM Consulting AI 서비스는 기업이 AI 활용 방식을 재구상하여 혁신을 달성하도록 지원합니다.

AI 서비스 살펴보기
다음 단계 안내

IBM Concert는 AI를 사용하여 운영에 관한 중요한 인사이트를 발견하고 개선을 위한 애플리케이션별 권장 사항을 제공합니다. Concert를 통해 비즈니스를 발전시키는 방법을 알아보세요.

Concert 살펴보기 비즈니스 프로세스 자동화 솔루션 살펴보기