인공 지능(AI)이 양극화되고 있습니다. 이는 미래학자를 흥분시키고 보수주의자에게는 두려움을 불러일으킵니다. 이전 게시물에서는 차별적 AI와 생성형 AI의 다양한 능력에 대해 설명했고, AI가 보험사와 피보험자의 상호 작용 방식을 변화시킬 수 있는 기회의 세계를 개략적으로 설명했습니다. 이 블로그에서는 논의를 계속하면서 AI 도입의 위험을 조사하고 AI 도입에 대한 안전하고 현명한 대응을 위한 조치를 제안합니다.
업계 뉴스레터
가장 중요하고 흥미로운 AI 뉴스에 대한 선별된 인사이트를 확인하세요. 주간 Think 뉴스레터를 구독하세요. IBM 개인정보 보호정책을 참조하세요.
구독은 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.
보험에서의 AI 도입과 관련된 위험은 크게 기술 및 사용이라는 두 가지 카테고리로 나눌 수 있습니다.
가장 큰 기술적 위험은 데이터 기밀성 문제입니다. AI 개발로 인해 전례 없는 규모로 정보를 수집, 저장 및 처리할 수 있게 되면서 다른 사람의 동의 없이 저렴한 비용으로 개인 데이터를 식별, 분석 및 사용할 수 있게 되었습니다. AI 기술과의 상호 작용으로 인한 개인 정보 유출 위험은 소비자의 우려와 불신의 주요 원인입니다.
AI가 데이터를 조작하여 새로운 콘텐츠를 만드는 생성형 AI의 출현은 기업 데이터 기밀성에 추가적인 위험을 초래합니다. 예를 들어, Chat GPT와 같은 생성형 AI 시스템에 기업 데이터를 공급하여 기밀 기업 연구의 요약을 생성하면 데이터 발자국이 AI의 외부 클라우드 서버에 지워지지 않고 남아 경쟁업체의 쿼리에 액세스할 수 있습니다.
AI 알고리즘은 학습 데이터를 최적화하여 AI에 인사이트를 제공할 수 있는 기능을 제공하는 매개변수입니다. 알고리즘의 매개변수가 유출되면 제3자가 모델을 복사할 수 있어 모델 소유자에게 경제적, 지적 재산 손실이 발생할 수 있습니다. 또한 AI 알고리즘 모델의 매개변수가 사이버 공격자에 의해 불법적으로 수정될 경우 AI 모델의 성능이 저하되어 바람직하지 않은 결과를 초래할 수 있습니다.
AI 시스템, 특히 생성형 AI의 블랙박스 특성으로 인해 AI 알고리즘의 의사 결정 프로세스는 이해하기 어렵습니다. 결정적으로 보험 부문은 금융 규제를 받는 산업으로, 알고리즘의 투명성, 설명 가능성 및 감사 가능성이 규제 기관에 매우 중요합니다.
AI 시스템의 성능은 학습하는 데이터에 따라 크게 달라집니다. AI 시스템이 부정확하거나 편향된 또는 표절된 데이터를 기반으로 학습되면 기술적으로 잘 설계되었더라도 바람직하지 않은 결과를 초래할 수 있습니다.
AI 시스템은 분석, 의사 결정, 조정 및 기타 활동에서 올바르게 작동할 수 있지만 여전히 남용의 위험이 있습니다. 운영자의 사용 목적, 사용 방법, 사용 범위 등은 왜곡되거나 일탈될 수 있으며, 이는 역효과를 초래하는 것을 의미합니다. 한 가지 예는 사람들의 움직임을 불법으로 추적하는 데 얼굴 인식을 사용하는 것입니다.
AI에 대한 과도한 의존은 사용자가 잘못된 AI 추천을 받아들이기 시작하여 커미션 오류를 범할 때 발생합니다. 사용자는 AI가 무엇을 할 수 있는지, 얼마나 잘 수행할 수 있는지 또는 어떻게 작동하는지에 대한 인식이 부족하기 때문에 적절한 신뢰 수준을 결정하는 데 어려움을 겪습니다. 이러한 위험의 결과는 AI 사용자의 기술 개발이 약화된다는 것입니다. 예를 들어, 새로운 상황을 처리하거나 다양한 관점을 고려하는 능력이 저하되거나 AI가 접근할 수 있는 케이스로만 제한되는 보험금 지급 심사 담당자의 경우입니다.
AI 도입으로 인한 위험은 AI 도입으로 인한 기술 및 사용 위험을 완화하기 위한 거버넌스 접근 방식을 개발해야 할 필요성을 강조합니다.
사용 위험을 완화하기 위해 다음과 같은 세 가지 접근 방식이 제안됩니다.
기술적 위험을 완화하려면 다음 사항을 고려하여 IT 거버넌스를 확장해야 합니다.
보험 분야에서 AI의 가능성과 잠재력은 점점 더 크고 복잡한 보험 계리 및 보험금 청구 데이터 세트에서 새로운 인사이트를 도출하는 능력에 있습니다. 이러한 데이터 세트는 행동 및 생태 데이터와 결합되어 AI 시스템이 데이터베이스를 쿼리하여 잘못된 데이터 추론을 도출하여 실제 보험 결과를 초래할 수 있는 가능성을 만들어냅니다.
효율적이고 정확한 AI를 위해서는 까다로운 데이터 과학이 필요합니다. 이를 위해서는 데이터베이스의 지식 표현을 신중하게 큐레이션하고, 데이터 매트릭스를 분해하여 차원을 줄이고, 누락되거나 중복되며 이상치인 데이터의 혼란스러운 영향을 완화하기 위해 데이터 세트를 사전 처리해야 합니다. 보험 AI 사용자는 입력 데이터 품질 제한이 보험에 영향을 미쳐 보험 계리 분석 모델의 정확도를 저하시킬 수 있다는 점을 인식해야 합니다.
AI 기술이 계속 발전하고 사용 사례가 확대됨에 따라 보험사는 이 기술을 주저해서는 안 됩니다. 하지만 보험사는 보험 분야 전문성을 AI 기술 개발에 기여해야 합니다. 입력 데이터의 출처를 알리고 데이터 품질을 보장하는 능력은 보험 업계에 AI를 안전하고 통제된 방식으로 적용하는 데 기여할 것입니다.
보험 분야에서 AI를 도입하는 여정을 시작하면서 보험 사례를 탐색하고 생성하세요. 무엇보다 강력한 AI 거버넌스 프로그램을 도입하세요.