No setor bancário e de serviços financeiros, inteligência artificial (IA) para detecção de fraudes refere-se à implementação de algoritmos de aprendizado de máquina (ML) para mitigar atividades fraudulentas.
Ao analisar grandes conjuntos de dados, modelos de IA conseguem aprender a reconhecer a diferença entre atividades suspeitas e transações legítimas, ajudando a identificar possíveis riscos de fraude e a prevenir crimes financeiros — inclusive detectando tendências que um agente humano poderia não perceber.
Instituições financeiras estão integrando cada vez mais soluções de IA a fluxos de trabalho novos e existentes para melhorar a tomada de decisões, a prevenção a fraudes e o gerenciamento de riscos. Modelos de aprendizado de máquina com IA, treinados com dados históricos, podem usar reconhecimento de padrões para identificar e bloquear automaticamente possíveis transações fraudulentas antes que sejam executadas. Eles também podem exigir que agentes humanos realizem etapas adicionais de autenticação para verificar uma transação suspeita. A tecnologia de IA também pode usar análise preditiva de dados para estimar os tipos de transações futuras que uma pessoa pode realizar e reconhecer se um novo tipo de transação ou comportamento transacional é incomum.
Dessa forma, a IA para fintechs pode ajudar a proteger indivíduos contra perdas financeiras resultantes de vários tipos de fraude, incluindo golpes de phishing, roubo de identidade, fraudes em pagamentos, fraudes com cartões de crédito e outras modalidades de fraude bancária.
Sistemas de detecção de fraudes com IA não são perfeitos, e alguns falsos positivos podem impactar negativamente a experiência geral do cliente. Mas impedir que fraudadores cometam crimes financeiros — desde cobranças não autorizadas até lavagem de dinheiro — é fundamental para garantir a segurança das contas dos clientes e manter a conformidade regulatória das instituições financeiras.
À medida que a tecnologia de IA avança, tanto os fornecedores de soluções de prevenção a fraudes com IA quanto as principais instituições financeiras estão apostando que a IA se tornará uma ferramenta ainda mais valiosa para impedir tentativas de fraude e mitigar riscos de fraude.
A tecnologia de IA permite que computadores se comportem, aprendam, se adaptem, resolvam problemas e ajam com autonomia de forma semelhante à cognição humana. Embora sistemas de IA não sejam necessariamente tão inteligentes quanto agentes humanos, quando operam em sistemas rígidos e baseados em regras, uma IA treinada e focada em tarefas específicas pode igualar ou até superar agentes humanos com velocidades muito maiores e em escalas muito mais amplas.
Sistemas de IA usados na prevenção de fraudes bancárias são altamente ajustados para tarefas específicas. Modelos de IA são treinados com grandes volumes de dados cuidadosamente selecionados, por meio de um processo chamado aprendizado supervisionado. Esse método ensina o modelo a reconhecer padrões específicos para tarefas específicas.
Em contraste, o aprendizado não supervisionado permite que sistemas de IA tirem conclusões a partir de dados anteriores sem material de treinamento direcionado.
Em cenários de aprendizado supervisionado, sistemas de IA são treinados com táticas específicas de fraude para orientar o reconhecimento de padrões. Um exemplo de conjunto de dados com aprendizado supervisionado pode conter milhares de registros financeiros normais misturados com exemplos identificados de comportamentos fraudulentos, como uma transação incomumente alta ou uma transferência para um endereço conhecido por estar envolvido em fraudes.
A IA é treinada dessa forma para se tornar altamente eficaz em reconhecer tanto transações médias e possivelmente legítimas quanto transações associadas a padrões conhecidos de comportamento fraudulento.
Técnicas de detecção de anomalias com aprendizado não supervisionado são usadas para preencher as lacunas onde os modelos supervisionados podem ser insuficientes. Essas técnicas permitem que modelos de IA reconheçam padrões de comportamento anteriormente não previstos — mas ainda assim incomuns. O uso de sistemas de IA com funcionalidades de aprendizado não supervisionado permite analisar novos dados e detectar possíveis táticas de fraude antes mesmo que agentes humanos percebam essas ameaças.
Com o uso combinado de aprendizado supervisionado e não supervisionado, bancos podem automatizar a triagem de padrões de fraude já confirmados e emitir alertas quando padrões desconhecidos indicarem a possibilidade de novas atividades fraudulentas.
Uma das aplicações mais comuns da tecnologia de IA é o chatbot em redes sociais — um programa automatizado capaz de conduzir conversas com clientes. Esses chatbots são frequentemente usados no atendimento ao cliente, respondendo a perguntas básicas e fornecendo informações em tempo real, sem a necessidade de aguardar a disponibilidade de um agente humano.
Além do atendimento ao cliente, o setor bancário utiliza muitos outros tipos de programas e softwares com IA para identificar e prevenir possíveis fraudes. Bancos utilizam sistemas de IA para detecção em tempo real, designando programas com IA para analisar grandes volumes de transações e identificar e sinalizar qualquer atividade suspeita de conta de diversas maneiras, incluindo:
Sistemas de IA estão inaugurando uma nova era de detecção de fraudes e segurança no setor bancário, oferecendo melhorias significativas em relação aos métodos tradicionais. No entanto, os modelos de IA são construídos com base nos aprendizados e práticas dos sistemas tradicionais — e esses métodos ainda têm seu papel.
Desde sua implementação, diversas instituições financeiras e bancos identificaram evidências significativas que justificam a adoção crescente da detecção de fraudes com IA. Utilizando modelos avançados de IA do tipo long short-term memory (LSTM), a American Express conseguiu melhorar a detecção de fraudes em 6%. E o PayPal conseguiu melhorar sua detecção de fraudes em tempo real em 10% por meio de sistemas de IA operando continuamente, em todo o mundo.
Na prática, os casos de uso da detecção de fraudes com IA no setor bancário são numerosos — e crescentes — incluindo os seguintes:
Descentralizada e considerada relativamente anônima, a criptomoeda é preferida por fraudadores devido à dificuldade de rastreamento. Ferramentas de prevenção a fraudes com IA podem monitorar transações em blockchain para identificar comportamentos incomuns, como transferências rápidas de fundos, e rastrear pagamentos roubados ou ilegais.
Quando integrados a plataformas on-line, chatbots com IA podem fazer mais do que atendimento ao cliente. Ao analisar padrões de linguagem e comportamento do usuário, esses chatbots podem detectar golpistas, identificando tentativas de phishing ou roubo de identidade com base em marcadores conversacionais conhecidos.
Bancos podem usar sistemas de IA para proteger seus clientes e evitar compras fraudulentas em e-commerces, analisando comportamento do cliente, histórico de compras e informações do dispositivo (como localização), sinalizando qualquer transação que fuja aos padrões históricos. Também podem usar visão computacional, lógica e raciocínio para identificar sites suspeitos e alertar os usuários antes de efetuarem compras em lojas de reputação duvidosa.
Como tecnologia revolucionária, a detecção de fraudes com IA já está causando um impacto expressivo no setor bancário — com um potencial ainda maior. No entanto, apesar das inúmeras vantagens oferecidas pela IA, essa nova tecnologia também apresenta desafios.
Os sistemas de IA estão melhorando a cada dia, mas não são infalíveis. Os modelos de IA geralmente podem gerar resultados imprecisos, conhecidos como alucinações. No setor bancário, resultados imprecisos podem ser mitigados com a criação de modelos hiperespecializados projetados para tarefas muito específicas, mas esse tipo de modelo limita o valor potencial da IA. Embora alucinações não sejam tão frequentes a ponto de tornar a IA inutilizável, aumentar a precisão será fundamental para o avanço da IA na proteção contra fraudes bancárias.
O viés na análise de dados é um problema que existe desde os primórdios da ciência, muito antes da tecnologia computacional. Infelizmente, o problema ainda persiste. No campo sensível dos serviços financeiros, muito trabalho tem sido feito para eliminar o viés e a discriminação nas práticas de concessão de crédito e proteção de contas. Eliminar o viés em modelos de IA criados por tecnólogos potencialmente tendenciosos é um desafio crítico que deve ser superado para evitar discriminação com base em fatores como sexo, etnia, deficiência e religião.
Questões de controle da privacidade de dados são vitais no setor bancário. Modelos de IA exigem acesso a grandes volumes de dados, que devem ser obtidos e processados de forma ética. Além disso, a implementação de IA deve ser cuidadosamente considerada para evitar a violação de leis de privacidade de dados existentes. Na verdade, à medida que essa nova tecnologia evolui, legisladores e órgãos reguladores podem precisar avaliar e atualizar o ambiente regulatório atual para garantir a privacidade dos clientes de forma segura.
Crie, implemente e gerencie assistentes e agentes de IA potentes que automatizam fluxos de trabalho e processos com a IA generativa.
Automatize, aprimore e gere valor com IA para soluções financeiras
A consultoria de serviços financeiros da IBM ajuda os clientes a modernizar os principais serviços bancários e pagamentos e a criar bases digitais resilientes a interrupções.