¿Qué es la clasificación en machine learning?

Autores

Ivan Belcic

Staff writer

¿Qué es la clasificación en machine learning?

La clasificación en machine learning es un proceso de modelado predictivo mediante el cual los modelos de machine learning utilizan algoritmos de clasificación para predecir la etiqueta correcta para la entrada. 

A medida que los modelos de IA aprenden a analizar y clasificar datos en sus conjuntos de datos de entrenamiento, se vuelven más competentes para identificar varios tipos de datos, descubrir tendencias y hacer predicciones más precisas. 

Al final del proceso de entrenamiento del modelo, el rendimiento del modelo se evalúa mediante el uso de datos de prueba. Después de que el modelo funciona bien de manera constante, se introduce en datos del mundo real que no se ven. Las redes neuronales entrenadas aplican lo que aprendieron durante el entrenamiento para hacer predicciones exitosas con nuevos datos. 

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

¿Qué son los modelos de clasificación?

Un modelo de clasificación es un tipo de modelo de machine learning que ordena los puntos de datos en grupos predefinidos llamados clases. Los clasificadores aprenden las características de clase a partir de los datos de entrada y luego aprenden a asignar posibles clases a nuevos datos no vistos de acuerdo con esas características aprendidas.1

AI Academy

Ponga la IA a trabajar para servicio al cliente

Vea cómo la IA generativa puede satisfacer a los clientes con una experiencia más fluida y aumentar la productividad de la organización en estas tres áreas clave: autoservicio, agentes humanos y operaciones del centro de contacto.

¿Qué son los algoritmos de clasificación?

Un algoritmo de clasificación es un algoritmo de machine learning centrado en la categorización que clasifica la entrada en diferentes categorías. Los modelos de inteligencia artificial (IA) utilizan algoritmos de clasificación para procesar conjuntos de datos contra un clasificador especificado que establece los criterios para cómo deben ordenarse los datos. Los algoritmos de clasificación se utilizan ampliamente en ciencia de datos para hacer forecasting patrones y predecir resultados. 

¿Cómo funcionan los modelos de clasificación?

Aunque no hay dos algoritmos de clasificación de machine learning exactamente iguales, todos siguen el mismo proceso general de clasificación de datos de dos pasos: 

  1. Aprendizaje
  2. Clasificación 

Paso 1: Aprendizaje

La clasificación ha sido tradicionalmente un tipo de machine learning supervisado, lo que significa que utiliza datos etiquetados para entrenar modelos. En el aprendizaje supervisado, cada punto de datos de los datos de entrenamiento contiene variables de entrada (también conocidas como variables o características independientes) y una variable de salida o etiqueta. 

En el entrenamiento de clasificación, el trabajo del modelo es comprender las relaciones entre las características y las etiquetas de clase, y luego aplicar esos criterios a futuros conjuntos de datos. Los modelos de clasificación utilizan las características de cada punto de datos junto con su etiqueta de clase para decodificar qué características definen cada clase. En términos matemáticos, el modelo considera cada punto de datos como una tupla x. Una tupla es una secuencia numérica ordenada que se representa como x = (x1,x2,x3…xn).

Cada valor de la tupla es una característica del punto de datos. Al asignar datos de entrenamiento con esta ecuación, un modelo aprende qué características están asociadas con cada etiqueta de clase. 

El propósito del entrenamiento es minimizar los errores durante el modelado predictivo. Los algoritmos de descenso de gradiente entrenan modelos minimizando la brecha entre los resultados predichos y reales. Posteriormente, los modelos se pueden ajustar con más entrenamiento para realizar tareas más específicas. 

Los enfoques de aprendizaje no supervisado para resolver problemas de clasificación han sido un foco clave de la investigación reciente. Los métodos de aprendizaje no supervisados permiten que los modelos descubran patrones en datos no etiquetados por sí mismos. La falta de etiquetas es lo que diferencia el aprendizaje no supervisado del aprendizaje supervisado

Mientras tanto, el aprendizaje semisupervisado combina datos etiquetados y no etiquetados para entrenar modelos con fines de clasificación y regresión. En situaciones en las que no es factible obtener grandes conjuntos de datos etiquetados, el aprendizaje semisupervisado es una alternativa viable. 

Paso 2: Clasificación 

El segundo paso en las tareas de clasificación es la clasificación misma. En esta fase, los usuarios despliegan el modelo en un conjunto de prueba de nuevos datos. Los datos no utilizados anteriormente se utilizan para evaluar el rendimiento del modelo y evitar el sobreajuste: cuando un modelo se apoya demasiado en sus datos de entrenamiento y se vuelve incapaz de hacer predicciones precisas en el mundo real. 

El modelo utiliza su función predicha aprendida para clasificar nuevos datos en distintas clases de acuerdo con las características de cada muestra. A continuación, los usuarios evalúan la precisión del modelo en función del número de muestras de datos de prueba predichas correctamente.2

¿Qué tipos de clasificación existen? 

Las tareas de modelado predictivo basadas en clasificación se distinguen entre sí en función del número de categorías y el grado en que las categorías son excluyentes: 

  • La clasificación binaria clasifica los datos en dos categorías exclusivas. 

  • La clasificación multiclase clasifica los datos en más de dos categorías exclusivas. 

  • La clasificación multietiqueta clasifica los datos en categorías no exclusivas. 

  • La clasificación desequilibrada tiene una distribución desigual de puntos de datos en todas las categories. 

Clasificación binaria

En los problemas de clasificación binaria, un modelo predice si los datos encajan en una de dos clases. Las técnicas de aprendizaje que se aplican durante el entrenamiento tienen modelos que evalúan las características de los datos de entrenamiento y predicen cuál de las dos etiquetas posibles se aplica a cada punto de datos: positivo o negativo, verdadero o falso, y sí o no. 

Por ejemplo, un filtro de spam clasifica los correos electrónicos como spam o no spam. Además de la detección de spam, los modelos de clasificación binaria son predictores de comportamiento confiables: ¿un cliente potencial abandonará o comprará un determinado producto? También son útiles en el procesamiento de lenguaje natural (PLN), el análisis de sentimientos, la clasificación de imágenes y la detección de fraudes.

Clasificación multiclase

Los problemas de clasificación multiclase clasifican datos con más de dos etiquetas de clase, todas las cuales son mutuamente excluyentes. De esta manera, los desafíos multiclase son similares a las tareas de clasificación binaria, excepto que tienen más clases. 

Los modelos de clasificación multiclase tienen muchos casos de uso en el mundo real. Además de determinar si los correos electrónicos son spam o no, una solución de clasificación multiclase también podría determinar si los correos electrónicos son promocionales o de alta prioridad. Por ejemplo, un clasificador de imágenes podría clasificar imágenes de mascotas mediante el uso de una gran cantidad de etiquetas de clase, como perro, gato, llama, ornitorrinco y más

El objetivo de un método de aprendizaje de clasificación multiclase es enseñar a un modelo a asignar datos de entrada con precisión a una gama más amplia de categorías posibles. Una función objetivo común en el entrenamiento multiclase es la pérdida de entropía cruzada categórica, que evalúa la brecha entre las predicciones del modelo con datos de prueba frente a las etiquetas correctas para cada punto de datos.

Clasificación multietiqueta

La clasificación multietiqueta se utiliza en situaciones en las que se pueden asignar varias etiquetas no exclusivas a cada punto de datos. A diferencia de los tipos de clasificación basados en la exclusividad, la clasificación multietiqueta permite la posibilidad de que los puntos de datos exhiban características de más de una categoría, un reflejo más cercano de la ambigüedad del mundo real en las recopilaciones de big data. 

Las tareas de clasificación multietiqueta a menudo se logran combinando las predicciones de varios modelos de clasificación binarios o multiclase.

Clasificación desequilibrada

La clasificación desequilibrada, en la que algunas categorías contienen más puntos de datos que otras, requiere un enfoque especializado. A medida que ciertos grupos acumulan más puntos de datos, algunos modelos de clasificación se vuelven con sesgo hacia esos grupos y predicen cada vez más a su favor. 

Las contramedidas incluyen algoritmos configurados para sopesar más el costo de las predicciones incorrectas, o métodos de muestreo que eliminan muestras mayoritarias o hacen muestras excesivas de grupos subrepresentados. 

Predicciones discretas y continuas

Los modelos predictivos generan resultados de dos tipos de predicciones: 

  • Las predicciones discretas clasifican definitivamente los datos en categorías distintas. 

  • Las predicciones continuas asignan una clase en función de una probabilidad. 

Predicciones discretas

Las predicciones discretas son las etiquetas de clase que se predijeron para cada punto de datos. Por ejemplo, un predictor de atención médica puede clasificar a los pacientes médicos como diabéticos o no diabéticos en función de los datos de salud. Las clases diabéticos y no diabéticos son las predicciones categóricas discretas.

Predicciones continuas

Los clasificadores continuos asignan predicciones de clase como probabilidades continuas llamadas puntuaciones de confianza. Estas probabilidades son valores entre 0 y 1, que representan porcentajes. El modelo predictor de diabetes podría clasificar a un paciente como diabético con una probabilidad de 0.82. El modelo cree que el paciente tiene un 82 % de posibilidades de tener diabetes. 

Los investigadores normalmente evalúan los modelos con predicciones discretas mientras utilizan predicciones continuas como umbrales. Un clasificador omite cualquier predicción por debajo de un umbral determinado. Si nuestro predictor de diabetes tiene un umbral de 0.4 (40 %) y clasifica a un paciente como diabético con una probabilidad de 0.35 (35 %), entonces el modelo ignorará esa etiqueta y no asignará al paciente a la clase diabético. 3

Clasificación frente a regresión

La diferencia entre clasificación y regresión es que, mientras que la clasificación predice la categoría de un punto de datos, la regresión predice un valor numérico real asociado. Tanto la clasificación como la regresión son tipos de modelos predictivos, pero con casos de uso distintos. 

Los modelos de clasificación clasifican los puntos de datos en categorías. La clasificación es el proceso de entrenamiento de un modelo de aprendizaje profundo para descubrir la función que categoriza los puntos de datos. 

Los modelos de regresión consideran varios puntos de datos para predecir un valor numérico continuo para otra variable. Por ejemplo, un modelo de regresión en el lugar de trabajo podría predecir el salario de un trabajador en función de la edad, la experiencia, la ubicación y la educación. 

En la práctica, los dos suelen estar estrechamente relacionados. Por ejemplo, el algoritmo de regresión logística utiliza la regresión para realizar tareas de clasificación.

Tipos de algoritmos de clasificación

Hay muchos tipos diferentes de algoritmos de clasificación. Si bien tienen casos de uso superpuestos, algunos son más adecuados para aplicaciones particulares que otros. Algunos de los algoritmos de clasificación más populares incluyen: 

  • Regresión logística

  • Árbol de decisiones 

  • Bosque aleatorio

  • Máquina de vectores de soporte (SVM) 

  • K-vecinos más cercanos 

  • naive bayes

Muchos de estos algoritmos se pueden implementar fácilmente en Python con el uso de bibliotecas scikit-learn. Mientras tanto, los métodos de conjunto y los modelos de transformadores son desarrollos más recientes que se aplican a problemas de clasificación.

Regresión logística

Los algoritmos de regresión logística se utilizan a menudo para realizar tareas de clasificación. La regresión logística es un clasificador de probabilidad derivado de modelos de regresión lineal. La regresión lineal utiliza una o más variables independientes para predecir el valor de una variable independiente. Este valor puede ser cualquier número racional continuo. 

La regresión logística es una modificación de la regresión lineal, ya que el valor de salida (o variable independiente) está limitado a cualquier valor entre 0 y 1. Para ello, aplica una transformación logit (o probabilidades logarítmicas) a la fórmula de regresión lineal estándar:9

ecuación logit para regresión logística

Los modelos de regresión logística se utilizan para la clasificación binaria en problemas de regresión multivariante: al considerar múltiples variables, ¿el punto de datos pertenece a una u otra categoría? Las aplicaciones más comunes son la detección de fraude y las predicciones biomédicas. Por ejemplo, se aplicó la regresión logística para ayudar a predecir la mortalidad de los pacientes inducida por traumatismos y cardiopatías coronarias.10

Árbol de decisión

Utilizados tanto para la clasificación como para la regresión, los árboles de decisión dividen los conjuntos de datos en grupos progresivamente más pequeños en una serie de juicios de clasificación binaria. La estructura resultante se asemeja a un árbol, ramificándose desde un juicio inicial hacia hojas o nodos posteriores. 

Un diagrama de un algoritmo de árbol de decisión

La naturaleza similar a un diagrama de flujo de los árboles de decisión los convierte en uno de los modelos más intuitivos para que los usuarios empresariales los entiendan. Fáciles de visualizar, los árboles de decisión aportan transparencia al proceso de clasificación al representar claramente los procesos de decisión y los criterios utilizados para categorizar los datos. 

Bosque aleatorio

El bosque aleatorio es una técnica de conjunto que combina los resultados de múltiples árboles de decisión en un solo resultado. El "bosque" resultante mejora la precisión de la predicción con respecto a la de un solo árbol, al tiempo que contrarresta el sobreajuste. Al igual que los árboles de decisión, los bosques aleatorios pueden manejar tareas de clasificación y regresión. 

Diagrama de un algoritmo de bosque aleatorio

Los algoritmos de bosque aleatorio crean múltiples árboles de decisión para cada tarea, agregan la predicción de todos los árboles y luego eligen la respuesta más popular como resultado definitivo. Cada árbol considera un subconjunto aleatorio de características de datos, lo que ayuda a garantizar una baja correlación entre los árboles. 

Máquina de vectores de soporte (SVM)

Los algoritmos de máquina de vectores de soporte (SVM) trazan puntos de datos en un espacio multidimensional, con el número de dimensiones correspondiente al número de características en los datos. El objetivo del algoritmo es descubrir la línea óptima, también conocida como hiperplano o límite de decisión, que divida mejor los puntos de datos en categorías. 

El hiperplano óptimo es el que tiene el margen más amplio, que es la distancia entre el hiperplano y los puntos de datos más cercanos en cada clase. Estos puntos de datos cercanos se conocen como vectores de soporte. Los modelos que separan los datos con un hiperplano son modelos lineales, pero los algoritmos SVM también pueden manejar tareas de clasificación no lineal con conjuntos de datos más complejos. 

La regresión logística, los árboles de decisión, los bosques aleatorios y los algoritmos SVM son ejemplos de aprendices ansiosos: algoritmos que construyen modelos a partir de datos de entrenamiento y luego aplican esos modelos a predicciones futuras. El entrenamiento lleva más tiempo, pero una vez que el algoritmo crea un buen modelo, las predicciones son más rápidas. 

K-vecinos más cercanos (KNN)

Los K-vecinos más cercanos (KNN) asignan puntos de datos a un espacio multidimensional. Luego, agrupa esos puntos de datos con valores de características similares en grupos o clases separados. Para clasificar nuevas muestras de datos, el clasificador analiza el número k de puntos más cercanos a los nuevos datos, cuenta los miembros de cada clase que componen el subconjunto vecino y devuelve esa proporción como la estimación de clase para el nuevo punto de datos. 

En otras palabras, el modelo asigna un nuevo punto de datos a cualquier clase que comprenda la mayoría de los vecinos de ese punto. Los modelos KNN son aprendices perezosos: algoritmos que no construyen inmediatamente un modelo a partir de datos de entrenamiento, sino que se refieren a los datos de entrenamiento y comparan nuevos datos con ellos. Por lo general, estos modelos tardan más en hacer predicciones que los aprendices ansiosos. 

Los modelos KNN generalmente comparan la distancia entre puntos de datos con la distancia euclidiana:13

Ecuación de la distancia euclidiana

El vecino más cercano aproximado (ANN) es una variante de KNN. En espacios de datos de alta dimensión, es costoso desde el punto de vista computacional encontrar los vecinos exactos de un punto de datos. La reducción de dimensionalidad y ANN son dos soluciones a este problema. 

En lugar de encontrar el vecino más cercano exacto de un punto de datos dado, ANN encuentra un vecino más cercano aproximado dentro de una distancia determinada. Investigaciones recientes mostraron resultados prometedores para ANN en el contexto de la clasificación multietiqueta.14

Naive Bayes

Con base en el teorema de Bayes, los clasificadores Naive Bayes calculan la probabilidad posterior para las predicciones de clase. Naive Bayes actualiza las predicciones de clase iniciales, o probabilidades previas, con cada nuevo dato. 

Con un predictor de diabetes, los datos médicos del paciente (presión arterial, edad, niveles de azúcar en sangre y más) son las variables independientes. Un clasificador bayesiano combina la prevalencia actual de diabetes en una población (probabilidad previa) con la probabilidad condicional de que los valores de los datos médicos del paciente aparezcan en alguien con diabetes. 

Los clasificadores Naive Bayes siguen la ecuación de la regla de Bayes:8

Ecuación de la regla de Bayes

Naive Bayes es conocido como un clasificador generativo. Al utilizar los valores de las variables de una observación, el clasificador bayesiano calcula qué clase es más probable que haya generado la observación. 

Los investigadores de procesamiento de lenguaje natural (PLN) han aplicado ampliamente Naïve Bayes para tareas de clasificación de textos, como el análisis de sentimientos. Utilizando un modelo de bag of words, en el que cada palabra constituye una variable, el clasificador Naive Bayes predice si una clase positiva o negativa produjo el texto en cuestión.9

Métodos de conjunto

Los métodos de conjunto y las técnicas de machine learning combinan varios modelos más pequeños en un único clasificador para mejorar los resultados. Los métodos de conjunto profundo reúnen múltiples modelos de aprendizaje profundo para crear clasificadores de conjunto aún más potentes. Los conjuntos con aprendices profundos pueden manejar tareas complejas de clasificación multietiqueta. 

El aumento de gradiente es un método de conjunto que ha demostrado aumentar la precisión de la predicción. Es un tipo de boosting, una técnica de conjunto en la que varios aprendices débiles aprenden unos de otros en secuencia para mejorar los resultados con cada iteración.

Modelos transformadores en clasificación

Aunque normalmente se utilizan para tareas de PLN, los modelos transformadores también se han aplicado a problemas de clasificación. Los modelos transformadores, como GPT y Claude, utilizan mecanismos de autoatención para centrarse en las partes más relevantes de un conjunto de datos de entrada. La codificación posicional se emplea para informar al modelo sobre dónde se encuentra cada punto de datos en una secuencia. 

Métodos de evaluación del aprendizaje de clasificación

Los investigadores y desarrolladores eligen ciertas métricas de evaluación para los modelos de clasificación en función de la tarea de clasificación específica. Todos miden la precisión con la que los aprendices, o clasificadores, predicen con precisión las clases modelo. 

Algunas de las métricas de evaluación más populares son: 

  • Exactitud 
  • Precisión 
  • Recuperación 
  • Puntuación F1
  • Matriz de confusión
  • Curva ROC

Los verdaderos positivos (TP) son aquellas muestras de datos que el modelo predice correctamente en su clase correspondiente. Los falsos positivos (FP) son aquellas instancias de clase negativa identificadas incorrectamente como casos positivos. Los falsos negativos (FN) son instancias positivas reales que se predijeron erróneamente como negativas. Los negativos verdaderos (TN) son las instancias de clase negativas reales que el modelo clasifica con precisión como negativas.

Exactitud

La exactitud es la proporción de verdaderos positivos con respecto a todas las predicciones del conjunto de datos. Mide la frecuencia con la que un modelo de machine learning predice correctamente un resultado, en este caso, la clase correcta para un punto de datos. 

La exactitud ofrece una visión general de alto nivel del rendimiento de un modelo, pero no revela si un modelo es mejor para predecir ciertas clases sobre otras. En los casos en que los conjuntos de datos están muy desequilibrados, centrarse en la exactitud puede llevar a un modelo a ignorar todos los conjuntos de datos más pequeños y predecir todos los resultados como la clase mayoritaria. En esta situación, la exactitud general seguirá siendo alta. 

Un filtro de spam tendría una alta exactitud si la mayoría de sus conjeturas son correctas, incluso si omite la mayoría de los correos electrónicos de spam reales. 

Precisión

La precisión, o valor predicho positivo (PPV), es la proporción de predicciones de clase positivas que pertenecen a la clase especificada. La precisión revela si un modelo está prediciendo correctamente para la clase objetivo, lo que lo hace útil para tareas de clasificación desequilibradas o cuando el costo de los falsos positivos es alto. 

En un filtro de spam, la precisión muestra cuántos de los correos electrónicos no deseados detectados son spam. Los modelos que clasifican incorrectamente los datos como falsos positivos tienen baja precisión, mientras que los modelos con menos falsos positivos tienen alta precisión.10

Fórmula de precisión

Recuperación

También conocida como sensibilidad o tasa de verdaderos positivos (TPR), la recuperación denota el porcentaje de instancias de clase detectadas por un modelo. La recuperación muestra la frecuencia con la que un modelo detecta miembros de la clase objetivo en el conjunto de datos. Para un filtro de spam, la recuperación muestra la cantidad de correos electrónicos no deseados reales que el modelo identifica como spam.11

Puntuación F1

La precisión y la recuperación comparten una relación inversa. A medida que un clasificador devuelve más verdaderos positivos que muestran una mayor recuperación, puede clasificar erróneamente las no instancias, generando falsos positivos y disminuyendo la precisión. El puntaje F1 resuelve este dilema al combinar precisión y exhaustividad para representar la exactitud total de un modelo por clase.12

Fórmula de puntuación F

Visualización de datos y evaluación de modelos

Las herramientas de visualización de datos ayudan a ilustrar los hallazgos en el análisis de datos. Los científicos de datos y los investigadores de machine learning utilizan dos herramientas principales para visualizar el rendimiento del clasificador: 

  • La matriz de confusión, una tabla que muestra los valores predichos frente a los reales. 

  • La curva ROC, un gráfico que representa la proporción de verdaderos positivos y verdaderos negativos.

Matriz de confusión

La matriz de confusión es una tabla que representa los valores predichos y reales de una clase. Los cuadros de la matriz representan el número de verdaderos positivos, falsos positivos, falsos negativos y verdaderos negativos. El total de estos valores es el número total de predicciones del modelo.13

matriz de confusión binaria de muestra

Curva ROC

Una curva de características operativas del receptor (ROC) visualiza la proporción de verdaderos positivos con respecto a los verdaderos negativos. El gráfico traza la tasa positiva verdadera frente a la tasa negativa verdadera para cada umbral utilizado en la clasificación del modelo. La estadística del área bajo la curva (AUC) surge de la curva ROC. 

La AUC mide la probabilidad de que un positivo seleccionado al azar tenga una puntuación de confianza más alta que un negativo aleatorio. Los valores de AUC oscilan entre 0 y 1. Una puntuación de 0 significa que el modelo puntúa todos los negativos con mayores probabilidades que los positivos, mientras que 1 significa que el modelo puntúa todos los positivos con mayor probabilidad.14

Soluciones relacionadas
IBM watsonx.ai

Entrene, valide, ajuste y despliegue IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de próxima generación para creadores de IA. Diseñe aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia en IA líder en la industria y la cartera de soluciones de IBM a su lado.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Conozca los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida del desarrollo de IA. Produzca potentes soluciones de IA con interfaces fáciles de usar, flujos de trabajo y acceso a API y SDK estándar de la industria.

Explore watsonx.ai Reserve una demostración en vivo
Notas de pie de página

1. Chris Drummond, “Classification,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.

2. Jaiwei Han, Micheline Kamber, and Jian Pei, Data Mining: Concepts and Techniques, 3rd edition, Morgan Kaufman, 2012.

3. Max Kuhn and Kjell Johnson, Applied Predictive Modeling, Springer, 2016.

4. Max Kuhn and Kjell Johnson, Applied Predictive Modeling, Springer, 2016. Gareth James, Daniela Witten, Trevor Hastie, Robert Tibshirani, and Jonathan Taylor, An Introduction to Statistical Learning with Applications in Python, Springer, 2023

5. Lisa X. Deng, Abigail May Khan, David Drajpuch, Stephanie Fuller, Jonathan Ludmir, Christopher E. Mascio, Sara L. Partington, Ayesha Qadeer, Lynda Tobin, Adrienne H. Kovacs, and Yuli Y. Kim, "Prevalence and Correlates of Post-traumatic Stress Disorder in Adults With Congenital Heart Disease," The American Journal of Cardiology, Vol. 117, No. 5, 2016, pp. 853-857, https://www.sciencedirect.com/science/article/abs/pii/S0002914915023590

6. Max Kuhn and Kjell Johnson, Applied Predictive Modeling, Springer, 2016. Kevin Murphy, Machine Learning: A Probabilistic Perspective, MIT Press, 2012.

7. Ville Hyvönen, Elias Jääsaari, Teemu Roos, “A Multilabel Classification Framework for Approximate Nearest Neighbor Search,” Journal of Machine Learning Research, Vol. 25, No. 46, 2024, pp. 1−51, https://www.jmlr.org/papers/v25/23-0286.html  

8. Max Kuhn and Kjell Johnson, Applied Predictive Modeling, Springer, 2016. William Bolstad and James Curran, Introduction to Bayesian Statistics, 3rd edition, Wiley, 2016.

9. Daniel Jurafsky and James Martin, Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition, 3rd edition, 2023.

10. Ethan Zhang and Yi Zhang, “Precision,” Encyclopedia of Database Systems, Springer, 2018.

11. Ethan Zhang and Yi Zhang, “Recall,” Encyclopedia of Database Systems, Springer, 2018.

12. Ben Carterette, “Precision and Recall,” Encyclopedia of Database Systems, Springer, 2018.

13. Kai Ming Ting, “Confusion matrix,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.

14. Peter Flach, “ROC Analysis,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.