O que é classificação no aprendizado de máquina?

Autores

Ivan Belcic

Staff writer

O que é classificação no aprendizado de máquina?

Classificação em aprendizado de máquina é um processo de modelagem preditiva pelo qual modelos de aprendizado de máquina usam algoritmos de classificação para prever o rótulo correto para dados de entrada. 

À medida que os modelos de IA aprendem a analisar e classificar os dados nos conjuntos de dados de treinamento, eles se tornam mais proficientes na identificação de vários tipos de dados, na descoberta de tendências e na realização de previsões mais precisas. 

No final do processo de treinamento do modelo, o desempenho do modelo é avaliado por meio de dados de teste. Depois que o modelo tem um desempenho consistentemente bom, ele é apresentado a dados não vistos do mundo real. As redes neurais treinadas aplicam o que aprenderam durante o treinamento para fazer previsões bem-sucedidas com novos dados. 

As mais recentes tendências em IA, trazidas a você por especialistas

Receba insights selecionados sobre as notícias mais importantes (e intrigantes) sobre IA. Inscreva-se no nosso boletim informativo semanal Think. Consulte a Declaração de privacidade da IBM.

Agradecemos a você! Você se inscreveu.

Sua assinatura será entregue em inglês. Você encontrará um link para cancelar a assinatura em cada boletim informativo. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.

O que são modelos de classificação?

Um modelo de classificação é um tipo de modelo de aprendizado de máquina que classifica os pontos de dados em grupos predefinidos chamados classes. Os classificadores aprendem as características de classe a partir dos dados de entrada e, em seguida, aprendem a atribuir possíveis classes a novos dados não vistos de acordo com essas características aprendidas.1

AI Academy

Coloque a IA para trabalhar no serviço ao cliente

Veja como a IA generativa pode encantar os clientes com uma experiência mais integrada e aumentar a produtividade da organização nessas três áreas importantes: autoatendimento, agentes humanos e operações da central de contato.

O que são algoritmos de classificação?

Um algoritmo de classificação é um algoritmo de aprendizado de máquina focado em categorização que classifica os dados de entrada em diferentes categorias ou categorias. Os modelos de inteligência artificial (IA) usam algoritmos de classificação para processar conjuntos de dados de entrada em relação a um classificador específico, que define os critérios de como os dados devem ser classificados. Os algoritmos de classificação são amplamente usados em ciência de dados para prever padrões e resultados. 

Como os modelos de classificação funcionam?

Embora nenhum algoritmo de classificação de aprendizado de máquina seja exatamente igual, todos eles seguem o mesmo processo geral de classificação de dados em duas etapas: 

  1. Aprendizado
  2. Classificação 

Etapa 1: aprendizado

A classificação tem sido tradicionalmente um tipo de aprendizado de máquina supervisionado, o que significa que ela usa dados rotulados para treinar modelos. No aprendizado supervisionado, cada ponto de dados nos dados de treinamento contém variáveis de entrada (também conhecidas como variáveis independentes ou funcionalidades) e uma variável de saída, ou rótulo. 

No treinamento de classificação, o trabalho do modelo é entender as relações entre funcionalidades e rótulos de classe e, em seguida, aplicar esses critérios a conjuntos de dados futuros. Os modelos de classificação usam as funcionalidades de cada ponto de dados junto com seu rótulo de classe para decodificar quais funcionalidades definem cada classe. Em termos matemáticos, o modelo considera cada ponto de dados como uma tupla x. Uma tupla é uma sequência numérica ordenada representada como x = (x1,x2,x3…xn).

Cada valor na tupla é uma funcionalidade do ponto de dados. Ao mapear dados de treinamento com essa equação, um modelo aprende quais funcionalidades estão associados a cada rótulo de classe. 

O objetivo do treinamento é minimizar erros durante a modelagem preditiva. Os algoritmos de gradiente descendente treinam modelos minimizando a lacuna entre os resultados previstos e os reais. Posteriormente, os modelos podem receber ajuste fino com mais treinamento para executar tarefas mais específicas. 

As abordagens de aprendizado não supervisionado para problemas de classificação têm sido um foco importante de pesquisas recentes. Métodos de aprendizado não supervisionado permitem que os modelos descubram padrões em dados não rotulados por si mesmos. A falta de rótulos é o que diferencia o aprendizado não supervisionado do aprendizado supervisionado

Enquanto isso, o aprendizado semissupervisionado combina dados rotulados e não rotulados para treinar modelos para fins de classificação e regressão. Em situações em que a obtenção de grandes conjuntos de dados rotulados não é viável, o aprendizado semissupervisionado é uma alternativa viável. 

Etapa 2: classificação 

A segunda etapa das tarefas de classificação é a própria classificação. Nessa fase, os usuários implementam o modelo em um conjunto de testes de novos dados. Dados não utilizados anteriormente são usados para avaliar o desempenho do modelo para evitar o overfitting : quando um modelo se baseia demais em seus dados de treinamento e se torna incapaz de fazer previsões precisas no mundo real.

O modelo usa sua função prevista aprendida para classificar novos dados em classes distintas de acordo com as funcionalidades de cada amostra. Em seguida, os usuários avaliam a exatidão do modelo de acordo com o número de amostras de dados de teste previstas corretamente.2

Que tipos de classificação existem? 

As tarefas de modelagem preditiva baseadas em classificação são diferenciadas umas das outras com base no número de categorias e no grau em que elas são exclusivas: 

  • A classificação binária classifica os dados em duas categorias exclusivas. 

  • A classificação multiclasses classifica os dados em mais de duas categorias exclusivas. 

  • A classificação multirrótulos classifica os dados em categorias não exclusivas. 

  • A classificação desequilibrada tem uma distribuição desigual de pontos de dados entre categorias. 

Classificação binária

Em problemas de classificação binária, um modelo prevê se os dados se encaixam em uma das duas classes. As técnicas de aprendizado aplicadas durante o treinamento fazem com que modelos avaliem as funcionalidades dos dados de treinamento e prevejam qual dos dois rótulos possíveis se aplicam a cada ponto de dados: positivo ou negativo, verdadeiro ou falso e sim ou não. 

Por exemplo, um filtro de spam classifica os e-mails como spam ou não spam. Além da detecção de spam, os modelos de classificação binária fazem preditores comportamentais confiáveis: um cliente em potencial deixará ou comprará um determinado produto? Eles também são úteis em processamento de linguagem natural (NLP), análise de sentimento, classificação de imagens e detecção de fraude.

Classificação multiclasses

Os problemas de classificação multiclasses classificam dados com mais de dois rótulos de classe, sendo que todos eles são mutuamente exclusivos. Dessa forma, os desafios multiclasses são semelhantes às tarefas de classificação binária, exceto com mais classes. 

Os modelos de classificação multiclasses têm muitos casos de uso do mundo real. Além de determinar se os e-mails são spam ou não, uma solução de classificação multiclasses também seria capaz de determinar se os e-mails são promocionais ou de alta prioridade. Um classificador de imagens pode classificar imagens de animais de estimação usando uma infinidade de rótulos de classes, como cachorro, gato, lhama, ornitorrinco e muitos outros

O objetivo de um método de aprendizado de classificação multiclasses é ensinar um modelo a atribuir dados de entrada com precisão a uma gama mais ampla de categorias possíveis. Uma função objetiva comum no treinamento multiclasses é a perda de entropia cruzada categórica, que avalia a lacuna entre as previsões do modelo com dados de teste em comparação com os rótulos corretos para cada ponto de dados.

Classificação multirrótulos

A classificação multirrótulos é usada em situações em que vários rótulos não exclusivos podem ser atribuídos a cada ponto de dados. Ao contrário dos tipos de classificação baseados em exclusividade, a classificação multirrótulos permite a possibilidade de que os pontos de dados exibam características de mais de uma categoria, um reflexo mais próximo da ambiguidade do mundo real nas coleções de big data. 

As tarefas de classificação multirrótulos geralmente são realizadas combinando as previsões de vários modelos de classificação binários ou multiclasses.

Classificação desequilibrada

A classificação desequilibrada, na qual algumas categorias contêm mais pontos de dados do que outras, requer uma abordagem especializada. Conforme certos grupos acumulam mais pontos de dados, alguns modelos de classificação se tornam com viés em relação a esses grupos e preveem cada vez mais a seu favor. 

As contramedidas incluem algoritmos configurados para ponderar mais o custo de previsões incorretas ou métodos de amostragem que eliminam amostras da maioria ou sobreamostragem de grupos sub-representados. 

Previsões discretas e contínuas

Os modelos preditivos produzem dois tipos de previsões: 

  • As previsões discretas classificam definitivamente os dados em categorias distintas. 

  • As previsões contínuas atribuem uma classe com base em uma probabilidade. 

Previsões discretas

As previsões discretas são os rótulos de classes previstos para cada ponto de dados. Por exemplo, um preditor de saúde pode classificar pacientes médicos como diabéticos ou não diabéticos com base em dados de saúde. As classes diabéticos e não diabéticos são as previsões categóricas discretas.

Previsões contínuas

Os classificadores contínuos atribuem previsões de classe como probabilidades contínuas chamadas pontuações de confiança. Essas probabilidades são valores entre 0 e 1, que representam percentuais. O modelo preditor de diabetes pode classificar um paciente como diabético com uma probabilidade de 0,82. O modelo acredita que o paciente tem 82% de chance de ter diabetes. 

Normalmente, os pesquisadores avaliam os modelos usando previsões discretas e, ao mesmo tempo, previsões contínuas como limites. Um classificador ignora qualquer previsão abaixo de um determinado limite. Se o nosso preditor de diabetes tiver um limite de 0,4 (40%) e classificar um paciente como diabetes com uma probabilidade de 0,35 (35%), o modelo ignorará esse rótulo e não atribuirá o paciente à classe diabéticos.3

Classificação versus regressão

A diferença entre classificação e regressão é que, enquanto a classificação prevê a categoria de um ponto de dados, a regressão prevê um valor numérico real associado. Tanto a classificação quanto a regressão são tipos de modelagem preditiva, mas com casos de uso distintos. 

Os modelos de classificação classificam os pontos de dados em categorias. Classificação é o processo de treinar um modelo de deep learning para descobrir a função que categoriza os pontos de dados. 

Os modelos de regressão consideram vários pontos de dados para prever um valor numérico contínuo para outra variável. Por exemplo, um modelo de regressão no ambiente de trabalho pode prever o salário de um trabalhador com base na idade, experiência, localização e educação. 

Na prática, os dois estão frequentemente relacionados. Por exemplo, o algoritmo de regressão logística usa regressão para cumprir tarefas de classificação.

Tipos de algoritmos de classificação

Há muitos tipos diferentes de algoritmos de classificação. Embora eles tenham casos de uso sobrepostos, alguns são mais adequados a aplicações específicas do que outros. Alguns dos algoritmos de classificação mais populares incluem: 

  • Regressão logística

  • Árvore de decisão 

  • Floresta aleatória

  • Máquina de vetores de suporte (SVM) 

  • k vizinhos mais próximos 

  • naïve bayes

Muitos desses algoritmos podem ser prontamente implementados no Python com o uso das bibliotecas scikit-learn. Enquanto isso, métodos em conjunto e modelos de transformador são desenvolvimentos mais recentes sendo aplicados a problemas de classificação.

Regressão logística

Os algoritmos de regressão logística são frequentemente usados para realizar tarefas de classificação. A regressão logística é um classificador de probabilidade derivado de modelos de regressão linear. A regressão linear usa uma ou mais variáveis independentes para prever o valor de uma variável independente. Esse valor pode ser qualquer número racional contínuo. 

A regressão logística é uma modificação da regressão linear, na qual o valor de saída (ou variável independente) é limitado a qualquer valor entre 0 e 1. Ela faz isso aplicando uma transformação logit (ou chance logarítmica) à fórmula de regressão linear padrão.9

Equação logit para regressão logística

Modelos de regressão logística são usados para classificação binária em problemas de regressão multivariada: ao considerar múltiplas variáveis, o ponto de dados pertence a uma categoria ou a outra? As aplicações comuns são detecção de fraude e previsões biomédicas. Por exemplo, a regressão logística foi implementada para ajudar a prever a mortalidade de pacientes induzida por trauma e doença cardíaca coronária.10

Árvore de decisão

Usadas tanto para classificação quanto para regressão, as árvores de decisão dividem os conjuntos de dados em grupos progressivamente menores em uma série de julgamentos de classificação binária. A estrutura resultante se assemelha a uma árvore, ramificando-se para fora de um julgamento inicial em folhas ou nós. 

Diagrama de um algoritmo de árvore de decisão

A natureza semelhante a um fluxograma das árvores de decisão as torna um dos modelos mais intuitivos para os usuários corporativos entenderem. Fáceis de visualizar, as árvores de decisão trazem transparência ao processo de classificação, representando claramente os processos de decisão e os critérios utilizados para categorizar os dados. 

Floresta aleatória

A floresta aleatória é uma técnica em conjunto que combina a saída de várias árvores de decisão em um único resultado. A “floresta” resultante melhora a exatidão da previsão em relação à de uma única árvore, ao mesmo tempo em que combate o overfitting. Assim como as árvores de decisão, as florestas aleatórias podem lidar com tarefas de classificação e regressão. 

Um diagrama de um algoritmo de floresta aleatória

Os algoritmos de florestas aleatórias criam múltiplas árvores de decisão para cada tarefa, agregam a previsão de todas as árvores e, em seguida, escolhem a resposta mais popular como resultado definitivo. Cada árvore considera um subconjunto aleatório de funcionalidades de dados, ajudando a garantir uma baixa correlação entre as árvores. 

Máquina de vetores de suporte (SVM)

Os algoritmos de máquina de vetores de suporte (SVM) plotam pontos de dados em um espaço multidimensional, com o número de dimensões correspondentes ao número de funcionalidades nos dados. O objetivo do algoritmo é descobrir a linha ideal, também conhecida como hiperplano ou boundary, que melhor divide os pontos de dados em categorias. 

O hiperplano ideal é aquele com a margem mais ampla, que é a distância entre o hiperplano e os pontos de dados mais próximos em cada classe. Esses pontos de dados próximos são conhecidos como vetores de suporte. Modelos que separam dados com um hiperplano são modelos lineares, mas algoritmos de SVM também podem lidar com tarefas de classificação não lineares com conjuntos de dados mais complexos. 

Regressão logística, árvores de decisão, florestas aleatórias e algoritmos de SVM são exemplos de aprendizes ávidos: algoritmos que criam modelos a partir de dados de treinamento e depois aplicam esses modelos a previsões futuras. O treinamento leva mais tempo, mas depois que o algoritmo cria um bom modelo, as previsões são mais rápidas. 

K-vizinhos mais próximos (KNNs)

O k vizinhos mais próximos (KNN) mapeia pontos de dados em um espaço multidimensional. Em seguida, ele agrupa os pontos de dados com valores de funcionalidades semelhantes em grupos ou classes separados. Para classificar novas amostras de dados, o classificador analisa o número k de pontos mais próximos dos novos dados, conta os membros de cada classe que compreende o subconjunto vizinho e retorna essa proporção como a estimativa de classe para o novo ponto de dados. 

Em outras palavras, o modelo atribui um novo ponto de dados à classe que compreende a maioria dos vizinhos desse ponto. Os modelos KNN são aprendizes preguiçosos: algoritmos que não criam imediatamente um modelo a partir de dados de treinamento, mas sim se referem a dados de treinamento e comparam novos dados a eles. Normalmente, leva mais tempo para esses modelos fazerem previsões do que aprendizes ansiosos. 

Os modelos de KNN normalmente comparam a distância entre os pontos de dados com a distância euclidiana:13

Equação da distância euclidiana

O vizinho mais próximo aproximado (ANN) é uma variante do KNN. Em espaços de dados de alta dimensão, é computacionalmente caro encontrar os vizinhos exatos de um ponto de dados. Redução de dimensionalidade e ANN são duas soluções para esse problema. 

Em vez de encontrar o vizinho mais próximo exato de um ponto de dados, o ANN encontra um vizinho mais próximo aproximado dentro de uma determinada distância. Pesquisas recentes mostraram resultados promissores para o ANN no contexto da classificação multirrótulos.14

Naive Bayes

Com base no teorema de Bayes, os classificadores Naive Bayes calculam a probabilidade posterior para as previsões de classe. O Naive Bayes atualiza as previsões de classe inicial, ou probabilidades anteriores, com cada novo dado. 

Com um preditor de diabetes, os dados médicos do paciente (pressão arterial, idade, níveis de açúcar no sangue etc.) são as variáveis independentes. Um classificador bayesiano combina a predominância atual de diabetes em uma população (probabilidade prévia) com a probabilidade condicional dos valores dos dados médicos do paciente aparecerem em alguém com diabetes. 

Os classificadores Naïve Bayes seguem a equação da Regra de Bayes:8

Equação da regra de Bayes

O Naïve Bayes é conhecido como um classificador generativo. Ao usar os valores das variáveis de uma observação, o classificador bayesiano calcula qual classe tem maior probabilidade de ter gerado a observação. 

Pesquisadores de processamento de linguagem natural (NLP) têm aplicado amplamente o Naïve Bayes a tarefas de classificação de texto, como a análise de sentimento. Usando um modelo de bag of words, no qual cada palavra constitui uma variável, o classificador Naïve Bayes prevê se uma classe positiva ou negativa produziu o texto em questão.9

Métodos de conjunto

Métodos em conjunto e técnicas de aprendizado de máquina combinam vários modelos menores em um único classificador para melhorar os resultados. Os métodos em conjunto profundo reúnem vários modelos de deep learning para criar classificadores de conjunto ainda mais poderosos. Conjuntos com aprendizes profundos podem lidar com tarefas complexas de classificação multirrótulos. 

O gradient boosting é um método em conjunto que demonstra aumentar a exatidão da previsão. É um tipo de boosting, uma técnica de conjunto na qual vários aprendizes fracos aprendem uns com os outros em sequência para melhorar os resultados a cada iteração.

Modelos de transformadores na classificação

Embora normalmente usados para tarefas de NLP, os modelos de transformadores também foram aplicados a problemas de classificação. Modelos de transformadores, como GPT e Claude, usam mecanismos de autoatenção para se concentrar nas partes mais relevantes de um conjunto de dados de entrada. A codificação posicional é utilizada para informar o modelo sobre onde cada ponto de dados se encontra em uma sequência. 

Métodos de avaliação de aprendizado por classificação

Pesquisadores e desenvolvedores escolhem determinadas métricas de avaliação para modelos de classificação, dependendo da tarefa específica de classificação. Todas medem a exatidão com que os aprendizes, ou classificadores, preveem com precisão as classes de modelos. 

Algumas das métricas de avaliação mais populares são: 

  • Exatidão 
  • Precisão 
  • Recall 
  • Pontuação F1
  • Matriz de confusão
  • Curva ROC

Verdadeiros positivos (VP) são aquelas amostras de dados que o modelo prevê corretamente em sua respectiva classe. Falsos positivos (FP) são aquelas instâncias de classe negativa identificadas incorretamente como casos positivos. Falsos negativos (FN) são ocorrências positivas reais erroneamente previstas como negativas. Verdadeiros negativos (NV) são as instâncias de classes negativas reais que o modelo classifica com precisão como negativas.

Precisão

A exatidão é a proporção de verdadeiros positivos em relação a todas as previsões no conjunto de dados. Ela mede a frequência com que um modelo de aprendizado de máquina prevê corretamente um resultado — nesse caso, a classe certa para um ponto de dados. 

A exatidão fornece uma visão geral de alto nível do desempenho de um modelo, mas não revela se um modelo é melhor em prever determinadas classes em detrimento de outras. Nos casos em que os conjuntos de dados são altamente desequilibrados, o foco na exatidão pode levar um modelo a ignorar todos os conjuntos de dados menores e prever todos os resultados como a classe predominante. Nessa situação, a exatidão geral ainda será alta. 

Um filtro de spam terá alta exatidão se a maioria de suas suposições estiver correta, mesmo que deixe passar a maioria dos e-mails de spam reais. 

Precisão

Precisão, ou valor previsto positivo (PPV), é a proporção de previsões de classe positiva que pertencem à classe especificada. A precisão revela se um modelo está prevendo corretamente para a classe-alvo, tornando-o útil para tarefas de classificação desequilibradas ou quando o custo de falsos positivos é alto. 

Em um filtro de spam, a precisão mostra quantos dos e-mails de spam detectados são spam. Modelos que classificam incorretamente os dados como falsos positivos têm baixa precisão, enquanto modelos com menos falsos positivos têm alta precisão.10

Fórmula de precisão

Recall

Também conhecida como sensibilidade ou taxa de verdadeiros positivos (TPR), o recall denota o percentual de instâncias de classe detectadas por um modelo. O recall mostra com que frequência um modelo detecta membros da classe de destino no conjunto de dados. Para um filtro de spam, o recall mostra a quantidade de e-mails de spam reais que o modelo identifica como spam.11

Pontuação F1

Precisão e recall compartilham uma relação inversa. À medida que um classificador retorna mais verdadeiros positivos mostrando maior recall, ele pode classificar não instâncias incorretamente, gerando falsos positivos e diminuindo a precisão. A pontuação F1 resolve essa troca ao combinando precisão e recall para representar a exatidão total de classe de um modelo.12

Fórmula da pontuação F

Visualização de dados e avaliação de modelos

Ferramentas de visualização de dados ajudam a ilustrar descobertas na análise de dados. Cientistas de dados e pesquisadores de aprendizado de máquina usam duas ferramentas principais para visualizar o desempenho dos classificadores: 

  • A matriz de confusão, uma tabela que mostra valores previstos versus valores reais. 

  • A curva ROC, um gráfico que descreve a proporção de verdadeiros positivos em relação aos verdadeiros negativos.

Matriz de confusão

A matriz de confusão é uma tabela que representa os valores previstos e reais de uma classe. As caixas da matriz representam o número de verdadeiros positivos, falsos positivos, falsos negativos e verdadeiros negativos. O total desses valores é o número total de previsões do modelo.13

matriz de confusão binária de amostra

Curva ROC

Uma curva ROC (receiver operating characteristic) visualiza a proporção entre verdadeiros positivos e verdadeiros negativos. O gráfico representa graficamente a taxa de verdadeiros positivos em relação à taxa de verdadeiros negativos para cada limite usado na classificação do modelo. A estatística de área sob a curva (AUC) surge da curva ROC. 

A AUC mede a probabilidade de um positivo selecionado aleatoriamente ter uma pontuação de confiança mais alta do que um negativo aleatório. Os valores da AUC variam de 0 a 1. Uma pontuação de 0 significa que o modelo pontua todos os negativos com probabilidades mais altas do que os positivos, enquanto 1 significa que o modelo pontua todos os positivos com maior probabilidade.8

Soluções relacionadas
IBM watsonx.ai

Treine, valide, ajuste e implemente recursos de IA generativa, modelos de base e recursos de aprendizado de máquina com o IBM watsonx.ai, um estúdio empresarial de última geração para construtores de IA. Crie aplicações de IA em uma fração do tempo com uma fração dos dados.

Conheça o watsonx.ai
Soluções de inteligência artificial

Use a IA a serviço de sua empresa com a experiência e o portfólio de soluções líder do setor da IBM à sua disposição.

Explore as soluções de IA
Consultoria e serviços em IA

Reinvente os fluxos de trabalho e operações críticos adicionando IA para maximizar experiências, tomadas de decisão em tempo real e valor de negócios.

Explore os serviços de IA
Dê o próximo passo

Obtenha acesso completo aos recursos que abrangem o ciclo de vida do desenvolvimento da IA. Produza soluções poderosas de IA com interfaces fáceis de usar, fluxos de trabalhos e acesso a APIs e SDKs padrão do setor.

Explore o watsonx.ai Agende uma demonstração em tempo real
Notas de rodapé

1. Chris Drummond, “Classification,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.

2. Jaiwei Han, Micheline Kamber e Jian Pei, Data Mining: Concepts and Techniques, 3rd edition, Morgan Kaufman, 2012.

3. Max Kuhn e Kjell Johnson, Applied Predictive Modeling, Springer, 2016.

4. Max Kuhn e Kjell Johnson, Applied Predictive Modeling, Springer, 2016. Gareth James, Daniela Witten, Trevor Hastie, Robert Tibshirani e Jonathan Taylor, An Introduction to Statistical Learning with Applications in Python, Springer, 2023

5. Lisa X. Deng, Abigail May Khan, David Drajpuch, Stephanie Fuller, Jonathan Ludmir, Christopher E. Mascio, Sara L. Partington, Ayesha Qadeer, Lynda Tobin, Adrienne H. Kovacs e Yuli Y. Kim, "Prevalence and Correlates of Post-traumatic Stress Disorder in Adults With Congenital Heart Disease," The American Journal of Cardiology, Vol. 117, No. 5, 2016, pp. 853-857, https://www.sciencedirect.com/science/article/abs/pii/S0002914915023590

6. Max Kuhn e Kjell Johnson, Applied Predictive Modeling, Springer, 2016. Kevin Murphy, Machine Learning: A Probabilistic Perspective, MIT Press, 2012.

7. Ville Hyvönen, Elias Jääsaari, Teemu Roos, “A Multilabel Classification Framework for Approximate Nearest Neighbor Search,” Journal of Machine Learning Research, Vol. 25, No. 46, 2024, pp. 1−51, https://www.jmlr.org/papers/v25/23-0286.html  

8. Max Kuhn e Kjell Johnson, Applied Predictive Modeling, Springer, 2016. William Bolstad e James Curran, Introduction to Bayesian Statistics, 3rd edition, Wiley, 2016.

9. Daniel Jurafsky e James Martin, Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition, 3rd edition, 2023.

10. Ethan Zhang and Yi Zhang, “Precision,” Encyclopedia of Database Systems, Springer, 2018.

11. Ethan Zhang and Yi Zhang, “Recall,” Encyclopedia of Database Systems, Springer, 2018.

12. Ben Carterette, “Precision and Recall,” Encyclopedia of Database Systems, Springer, 2018.

13. Kai Ming Ting, “Confusion matrix,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.

14. Peter Flach, “ROC Analysis,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.