A inteligência artificial (IA) está se polarizando. Isso empolga os futuristas e gera trepidação nos conservadores. Na minha publicação anterior, descrevi as diferentes capacidades dos recursos da IA discriminativa e da IA generativa, e esbocei um mundo de oportunidades onde a IA muda a forma como as seguradoras e os segurados interagem. Este blog continua a discussão, agora investigando os riscos de adotar IA e propõe medidas para uma resposta segura e criteriosa à adoção de IA.
Boletim informativo do setor
Receba insights selecionados sobre as notícias mais importantes (e intrigantes) sobre IA. Inscreva-se no nosso boletim informativo semanal Think. Consulte a Declaração de privacidade da IBM.
Sua assinatura será entregue em inglês. Você encontrará um link para cancelar a assinatura em cada boletim informativo. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.
O risco associado à adoção da IA no setor de seguros pode ser separado em duas categories: tecnológico e de uso.
O principal risco tecnológico é a questão da confidencialidade dos dados. O desenvolvimento da IA possibilitou a coleta, o armazenamento e o processamento de informações em uma escala sem precedentes, tornando extremamente fácil identificar, analisar e usar dados pessoais a baixo custo sem o consentimento de outras pessoas. O risco de vazamento de privacidade da interação com tecnologias de IA é uma fonte importante de preocupação e desconfiança do consumidor.
O advento da IA generativa, onde a IA manipula seus dados para criar novo conteúdo, traz um risco adicional para a confidencialidade dos dados corporativos. Por exemplo, alimentar um sistema de IA generativa como o Chat GPT com dados corporativos para produzir um resumo de pesquisa corporativa confidencial significaria que uma pegada de dados seria deixada para sempre no servidor de nuvem externo da IA, acessível a consultas de concorrentes.
Os algoritmos de IA são os parâmetros que otimizam os dados de treinamento que dão à IA sua capacidade de fornecer insights. Se os parâmetros de um algoritmo vazarem, um terceiro poderá conseguir copiar o modelo, causando perda econômica e de propriedade intelectual para o proprietário do modelo. Além disso, caso os parâmetros do modelo de algoritmo de IA possam ser modificados ilegalmente por um invasor cibernético, isso causará a deterioração do desempenho do modelo de IA e levará a consequências indesejáveis.
A característica de caixa-preta dos sistemas de IA, especialmente a IA generativa, torna o processo de decisão dos algoritmos de IA difícil de entender. O setor de seguros é um setor regulamentado financeiramente, no qual a transparência, a explicabilidade e a auditabilidade dos algoritmos são de fundamental importância para o regulador.
O desempenho de um sistema de IA depende muito dos dados dos quais ele aprende. Se um sistema de IA for treinado com dados imprecisos, tendenciosos ou plagiados, ele fornecerá resultados indesejáveis, mesmo que seja tecnicamente bem projetado.
Embora um sistema de IA possa estar operando corretamente em sua análise, tomada de decisão, coordenação e outras atividades, ele ainda apresenta riscos de abuso. O propósito de uso do operador, o método de uso, o intervalo de uso e assim por diante podem ser pervertidos ou desviados e destinados a causar efeitos adversos. Um exemplo disso é o reconhecimento facial sendo usado para o rastreamento ilegal do movimento das pessoas.
A dependência excessiva da IA ocorre quando os usuários começam a aceitar recomendações incorretas de IA, cometendo erros de comissão. Os usuários têm dificuldade em determinar os níveis adequados de confiança porque não têm consciência do que a IA pode fazer, de quão bem ela pode funcionar ou como ela funciona. Uma consequência desse risco é o desenvolvimento enfraquecido das habilidades do usuário de IA. Por exemplo, um vistoriador independente cuja capacidade de lidar com novas situações ou considerar múltiplas perspectivas está deteriorada ou restrita a apenas casos aos quais a IA também tem acesso.
Os riscos representados pela adoção da IA destacam a necessidade de desenvolver uma abordagem de governança para mitigar o risco técnico e de uso decorrente da adoção da IA.
Para mitigar o risco de uso, é proposta uma abordagem em três frentes:
Para mitigar o risco tecnológico, a governança de TI deve ser expandida para contabilizar o seguinte:
A promessa e o potencial da IA no setor de seguros residem na sua capacidade de obter novos insights a partir de conjuntos de dados atuariais e de sinistros cada vez maiores e mais complexos. Esses conjuntos de dados, combinados com dados comportamentais e ecológicos, criam o potencial para que os sistemas de IA que consultam bancos de dados extraiam inferências de dados errôneas, prenunciando consequências para os seguros no mundo real.
Uma IA eficiente e precisa exige uma ciência de dados minuciosa. Requer seleção cuidadosa de representações de conhecimento no banco de dados, decomposição de matrizes de dados para reduzir dimensionalidade e pré-processamento de conjuntos de dados para mitigar os efeitos de confusão de dados ausentes, redundantes e valores discrepantes. Os usuários de IA para seguros devem estar cientes de que as limitações na qualidade dos dados de input têm implicações para os seguros, podendo reduzir a precisão do modelo atuarial analítico.
Conforme as tecnologias de IA continuam amadurecendo e os casos de uso se expandem, as seguradoras não devem se intimidar com a tecnologia. Mas as seguradoras devem contribuir com sua experiência no domínio de seguros para o desenvolvimento de tecnologias de IA. A capacidade de informar a proveniência dos dados de entrada e garantir a qualidade dos dados contribuirá para uma aplicação segura e controlada da IA nos setores de seguros.
Ao embarcar em sua jornada para a IA em seguros, explore e crie casos de seguros. Acima de tudo, implemente um programa robusto de governança de IA.