La inteligencia artificial (IA) se está polarizando. Excita a los futuristas y genera inquietud en los conservadores. En mi publicación anterior, describí las diferentes capacidades de la IA discriminativa y generativa, y esbocé un mundo de oportunidades en el que la IA cambia la forma en que las aseguradoras y los asegurados interactuarían. Este blog continúa el debate, ahora investiga los riesgos de adoptar la IA y propone medidas para una respuesta segura y juiciosa a la adopción de la IA.
Boletín de la industria
Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .
Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.
El riesgo asociado a la adopción de la IA en los seguros puede dividir en dos categorías: tecnológica y de uso.
El principal riesgo tecnológico es la cuestión de la confidencialidad de los datos. El desarrollo de la IA ha permitido la recopilación, el almacenamiento y el procesamiento de información a una escala sin precedentes, lo que hace que sea extremadamente fácil identificar, analizar y utilizar datos personales a bajo costo sin el consentimiento de otros. El riesgo de filtración de datos personales derivado de la interacción con tecnologías de IA es una de las principales fuentes de preocupación y desconfianza de los consumidores.
La llegada de la IA generativa, en la que la IA manipula sus datos para crear nuevos contenidos, supone un riesgo adicional para la confidencialidad de los datos corporativos. Por ejemplo, alimentar un sistema de IA generativa como Chat GPT con datos corporativos para producir un resumen de investigación corporativa confidencial significaría que una huella de datos quedaría indeleble en el servidor externo en la nube de la IA y sería accesible para las consultas de la competencia.
Los algoritmos de IA son los parámetros que optimizan los datos de entrenamiento que le dan a la IA su capacidad para dar insights. Si se filtran los parámetros de un algoritmo, un tercero podría copiar el modelo, lo que causaría pérdidas económicas y de propiedad intelectual al propietario del modelo. Además, si los parámetros del modelo del algoritmo de IA fueran modificados ilegalmente por un ciberatacante, se produciría un deterioro del rendimiento del modelo de IA y se derivarían consecuencias indeseables.
La característica de caja negra de los sistemas de IA, especialmente la IA generativa, hace que el proceso de decisión de los algoritmos de IA sea difícil de entender. Crucialmente, el sector asegurador es una industria regulada financieramente donde la transparencia, explicabilidad y auditabilidad de los algoritmos es de importancia clave para el regulador.
El rendimiento de un sistema de IA depende en gran medida de los datos a partir de los cuales aprende. Si un sistema de IA se capacita con datos inexactos, con sesgo o plagiados, dará resultados indeseables incluso si está técnicamente bien diseñado.
Aunque un sistema de IA pueda funcionar correctamente en sus análisis, toma de decisiones, coordinación y otras actividades, sigue existiendo el riesgo de que se utilice de forma indebida. El propósito de uso del operador, el método de uso, el rango de uso, etc., podrían pervertirse o desviarse, y estar destinados a causar efectos adversos. Un ejemplo de ello es el uso del reconocimiento facial para el seguimiento ilegal de los movimientos de las personas.
La dependencia excesiva de la IA ocurre cuando los usuarios empiezan a aceptar recomendaciones incorrectas de IA, cometiendo errores de comisión. Los usuarios tienen dificultades para determinar los niveles adecuados de confianza porque desconocen lo que la IA puede hacer, su rendimiento o su funcionamiento. Un corolario de este riesgo es el debilitamiento del desarrollo de habilidades del usuario de IA. Por ejemplo, un ajustador de reclamos cuya capacidad para manejar nuevas situaciones, o considerar múltiples perspectivas, se deteriora o se restringe solo a los casos a los que la IA también tiene acceso.
Los riesgos que plantea la adopción de IA ponen de relieve la necesidad de desarrollar un enfoque de gobernanza para mitigar el riesgo técnico y de uso que conlleva la adopción de IA.
Para mitigar el riesgo de uso, se propone un enfoque triple:
Para mitigar el riesgo tecnológico, la gobernanza de TI debe ampliarse para tener en cuenta lo siguiente:
La promesa y el potencial de la IA en los seguros radica en su capacidad para obtener insights novedosos a partir de conjuntos de datos actuariales y de siniestros cada vez más grandes y complejos. Estos conjuntos de datos, combinados con datos conductuales y ecológicos, crean el potencial para que los sistemas de IA que consultan bases de datos extraigan inferencias erróneas de datos, lo que augura consecuencias reales para los seguros.
Una IA eficiente y precisa requiere una ciencia de datos meticulosa. Requiere una cuidadosa curación de las representaciones de conocimiento en bases de datos, descomposición de matrices de datos para reducir la dimensionalidad y preprocesamiento de conjuntos de datos para mitigar los efectos de confusión de datos faltantes, redundantes y atípicos. Los usuarios de IA de seguros deben ser conscientes de que las limitaciones de calidad de los datos de entrada tienen implicaciones en el seguro, lo que podría reducir la precisión del modelo analítico actuarial.
A medida que las tecnologías de IA continúan madurando y los casos de uso se expanden, las aseguradoras no deben rehuir la tecnología. Pero las aseguradoras deben aportar su experiencia en el ámbito de los seguros al desarrollo de tecnologías de IA. Su capacidad para informar la procedencia de los datos de entrada y garantizar la calidad de los datos contribuirá a una aplicación segura y controlada de la IA en la industria de seguros.
A medida que te embarcas en tu viaje hacia la IA en el sector de los seguros, explora y crea casos de seguros. Sobre todo, ponga en marcha un sólido programa de gobernanza de la IA.