¿Qué es la clasificación en machine learning?

Autores

Ivan Belcic

Staff writer

¿Qué es la clasificación en machine learning?

La clasificación en machine learning es un proceso de modelado predictivo mediante el cual los modelos de machine learning utilizan algoritmos de clasificación para predecir la etiqueta correcta para los datos de entrada. 

A medida que los modelos de IA aprenden a analizar y clasificar los datos en sus conjuntos de datos de entrenamiento, se vuelven más competentes para identificar varios tipos de datos, descubrir tendencias y hacer predicciones más precisas. 

Al final del proceso de entrenamiento del modelo, el rendimiento del modelo se evalúa utilizando datos de prueba. Una vez que el modelo funciona de manera consistente, se introduce en datos del mundo real que no se ven. Las redes neuronales entrenadas aplican lo que aprendieron durante el entrenamiento para hacer predicciones exitosas con nuevos datos. 

Las últimas tendencias en IA, presentadas por expertos

Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Está suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

¿Qué son los modelos de clasificación?

Un modelo de clasificación es un tipo de modelo de machine learning que ordena los puntos de datos en grupos predefinidos denominados clases. Los clasificadores aprenden las características de clase a partir de los datos de entrada y, a continuación, aprenden a asignar posibles clases a nuevos datos no vistos de acuerdo con esas características aprendidas.1

AI Academy

Ponga la IA a trabajar para el servicio de atención al cliente

Vea cómo la IA generativa puede satisfacer a los clientes con una experiencia más fluida y aumentar la productividad de la organización en estas tres áreas clave: autoservicio, agentes humanos y operaciones del centro de contacto.

¿Qué son los algoritmos de clasificación?

Un algoritmo de clasificación es un algoritmo de machine learning centrado en la categorización que clasifica la entrada en diferentes clases o categorías. Los modelos de inteligencia artificial (IA) utilizan algoritmos de clasificación para procesar conjuntos de datos de entrada contra un clasificador especificado que establece los criterios sobre cómo deben ordenarse los datos. Los algoritmos de clasificación se utilizan ampliamente en ciencia de datos para patrones de previsión y predicción de resultados. 

¿Cómo funcionan los modelos de clasificación?

Aunque no hay dos algoritmos de clasificación de machine learning exactamente iguales, todos siguen el mismo proceso general de clasificación de datos en dos pasos: 

  1. Aprendizaje
  2. Clasificación 

Paso 1: Aprendizaje

La clasificación ha sido tradicionalmente un tipo de machine learning supervisado, lo que significa que utiliza datos etiquetados para entrenar modelos. En el aprendizaje supervisado, cada punto de datos de los datos de entrenamiento contiene variables de entrada (también conocidas como variables independientes o características), y una variable de salida o etiqueta. 

En el entrenamiento de clasificación, el trabajo del modelo es comprender las relaciones entre las características y las etiquetas de clase, y luego aplicar esos criterios a futuros conjuntos de datos. Los modelos de clasificación utilizan las características de cada punto de datos junto con su etiqueta de clase para decodificar qué características definen cada clase. En términos matemáticos, el modelo considera cada punto de datos como una tupla x. Una tupla es una secuencia numérica ordenada que se representa como x = (x1,x2,x3…xn).

Cada valor de la tupla es una característica del punto de datos. Al correlacionar los datos de entrenamiento con esta ecuación, un modelo aprende qué características están asociadas a cada etiqueta de clase. 

El propósito del entrenamiento es minimizar los errores durante el modelado predictivo. Los algoritmos de descenso de gradiente entrenan modelos minimizando la brecha entre los resultados previstos y los reales. Posteriormente, los modelos se pueden ajustar con más entrenamiento para realizar tareas más específicas. 

Los enfoques de aprendizaje no supervisado para resolver problemas de clasificación han sido un foco clave de la investigación reciente. Los métodos de aprendizaje no supervisado permiten a los modelos descubrir patrones en datos no etiquetados por sí mismos. La falta de etiquetas es lo que diferencia el aprendizaje no supervisado del aprendizaje supervisado

Mientras tanto, el aprendizaje semisupervisado combina datos etiquetados y no etiquetados para entrenar modelos con fines de clasificación y regresión. En situaciones en las que no es factible obtener grandes conjuntos de datos etiquetados, el aprendizaje semisupervisado es una alternativa viable. 

Paso 2: Clasificación 

El segundo paso en las tareas de clasificación es la clasificación misma. En esta fase, los usuarios implementan el modelo en un conjunto de prueba de nuevos datos. Los datos no utilizados anteriormente se utilizan para evaluar el rendimiento del modelo y evitar el sobreajuste: cuando un modelo se apoya demasiado en sus datos de entrenamiento y se vuelve incapaz de hacer predicciones precisas en el mundo real. 

El modelo utiliza su función predicha aprendida para clasificar nuevos datos en distintas clases según las características de cada muestra. Después, los usuarios evalúan la precisión del modelo según la cantidad de muestras de datos de prueba predichas correctamente.2

¿Qué tipos de clasificación existen? 

Las tareas de modelado predictivo basadas en la clasificación se distinguen entre sí en función del número de categorías y del grado en que las categorías son exclusivas: 

  • La clasificación binaria clasifica los datos en dos categorías exclusivas. 

  • La clasificación multiclase clasifica los datos en más de dos categorías exclusivas. 

  • La clasificación multietiqueta clasifica los datos en categorías no exclusivas. 

  • La clasificación desequilibrada tiene una distribución desigual de puntos de datos entre categorías. 

Clasificación binaria

En los problemas de clasificación binaria, un modelo predice si los datos encajan en una de dos clases. Las técnicas de aprendizaje que se aplican durante el entrenamiento tienen modelos que evalúan las características de los datos de entrenamiento y predicen cuál de las dos etiquetas posibles se aplica a cada punto de datos: positivo o negativo, verdadero o falso, y sí o no. 

Por ejemplo, un filtro de spam clasifica los correos electrónicos como spam o no spam. Además de la detección de spam, los modelos de clasificación binaria son predictores de comportamiento fiables: ¿un cliente potencial abandonará o comprará un determinado producto? También son útiles en procesamiento del lenguaje natural (PLN), análisis de sentimientos, la clasificación de imágenes y detección del fraude.

Clasificación multiclase

Los problemas de clasificación multiclase clasifican los datos con más de dos etiquetas de clase, todas ellas mutuamente excluyentes. De esta manera, los desafíos multiclase son similares a las tareas de clasificación binaria, excepto que tienen más clases. 

Los modelos de clasificación multiclase tienen muchos casos de uso en el mundo real. Además de determinar si los correos electrónicos son spam o no, una solución de clasificación multiclase también podría determinar si los correos electrónicos son promocionales o de alta prioridad. Un clasificador de imágenes podría clasificar imágenes de mascotas utilizando una gran variedad de etiquetas de clase, como perro, gato, llama, ornitorrinco y otros

El objetivo de un método de aprendizaje de clasificación multiclase es enseñar a un modelo a asignar entrada con precisión a una gama más amplia de categorías posibles. Una función objetivo común en el entrenamiento multiclase es la pérdida de entropía cruzada categórica, que evalúa la brecha entre las predicciones del modelo con datos de prueba y las etiquetas correctas para cada punto de datos.

Clasificación multietiqueta

La clasificación multietiqueta se utiliza en situaciones en las que se pueden asignar varias etiquetas no exclusivas a cada punto de datos. A diferencia de los tipos de clasificación basados en la exclusividad, la clasificación multietiqueta permite la posibilidad de que los puntos de datos exhiban características de más de una categoría, un reflejo más cercano de la ambigüedad del mundo real en las colecciones de big data. 

Las tareas de clasificación multietiqueta suelen realizarse combinando las predicciones de varios modelos de clasificación binarios o multiclase.

Clasificación desequilibrada

La clasificación desequilibrada, en la que algunas categorías contienen más puntos de datos que otras, requiere un enfoque especializado. A medida que ciertos grupos acumulan más puntos de datos, algunos modelos de clasificación se inclinan hacia esos grupos y predicen cada vez más a su favor. 

Las contramedidas incluyen algoritmos configurados para sopesar más el coste de las predicciones incorrectas, o métodos de muestreo que eliminan muestras mayoritarias o sobremuestrean de grupos infrarrepresentados. 

Predicciones discretas y continuas

Los modelos predictivos generan dos tipos de predicciones: 

  • Las predicciones discretas clasifican definitivamente los datos en categorías. 

  • Las predicciones continuas asignan una clase en función de una probabilidad. 

Predicciones discretas

Las predicciones discretas son las etiquetas de clase predichas para cada punto de datos. Por ejemplo, un predictor de estado puede clasificar a los pacientes médicos como diabéticos o no diabéticos en función de los datos de estado. Las clases diabético y no diabético son las predicciones categóricas discretas.

Predicciones continuas

Los clasificadores continuos asignan predicciones de clase como probabilidades continuas denominadas puntuaciones de confianza. Estas probabilidades son valores entre 0 y 1, que representan porcentajes. El modelo predictor de diabetes podría clasificar a un paciente como diabético con una probabilidad de 0,82. El modelo cree que el paciente tiene un 82 % de posibilidades de tener diabetes. 

Los investigadores normalmente evalúan los modelos utilizando predicciones discretas mientras utilizan predicciones continuas como umbrales. Un clasificador ignora cualquier predicción por debajo de un cierto umbral. Si nuestro predictor de diabetes tiene un umbral de 0,4 (40 %) y clasifica a un paciente como diabético con una probabilidad de 0,35 (35 %), el modelo ignorará esa etiqueta y no asignará al paciente a la clase de diabético.3

Clasificación versus regresión

La diferencia entre clasificación y regresión es que, mientras que la clasificación predice la categoría de un punto de datos, la regresión predice un valor numérico real asociado. Tanto la clasificación como la regresión son tipos de modelado predictivo, pero con casos de uso distintos. 

Los modelos de clasificación ordenan los puntos de datos en categorías. La clasificación es el proceso de entrenamiento de un modelo de deep learning para descubrir la función que categoriza los puntos de datos. 

Los modelos de regresión consideran varios puntos de datos para predecir un valor numérico continuo para otra variable. Por ejemplo, un modelo de regresión en el lugar de trabajo podría predecir el salario de un trabajador en función de la edad, la experiencia, la ubicación y la formación. 

En la práctica, los dos suelen estar estrechamente relacionados. Por ejemplo, el algoritmo de regresión logística utiliza la regresión para realizar tareas de clasificación.

Tipos de algoritmos de clasificación

Hay muchos tipos diferentes de algoritmos de clasificación. Aunque tienen casos de uso superpuestos, algunos son más adecuados para aplicaciones particulares que otros. Algunos de los algoritmos de clasificación más populares incluyen: 

  • Regresión logística

  • Árbol de decisión 

  • Bosque aleatorio

  • Máquina de vectores de soporte (SVM) 

  • K-vecinos más cercanos 

  • Naive Bayes

Muchos de estos algoritmos se pueden implementar fácilmente en Python con el uso de bibliotecas scikit-learn. Mientras tanto, los métodos de conjunto y los modelos de transformadores son desarrollos más recientes que se aplican a problemas de clasificación.

Regresión logística

Los algoritmos de regresión logística se utilizan a menudo para realizar tareas de clasificación. La regresión logística es un clasificador de probabilidad derivado de modelos de regresión lineal. La regresión lineal utiliza una o más variables independientes para predecir el valor de una variable independiente. Este valor puede ser cualquier número racional continuo. 

La regresión logística es una modificación de la regresión lineal, puesto que el valor de salida se limita a cualquier valor entre 0 y 1. Lo hace al aplicar una transformación logarítmica (o cuotas logarítmicas) a la fórmula de regresión lineal estándar:9

ecuación logit para la regresión logística

Los modelos de regresión logística se utilizan para la clasificación binaria en problemas de regresión multivariante: al considerar múltiples variables, ¿pertenece el punto de datos a una categoría u otra? Las aplicaciones más comunes son la detección del fraude y las predicciones biomédicas. Por ejemplo, se ha implementado la regresión logística para ayudar a predecir la mortalidad de los pacientes inducida por un traumatismo y una enfermedad coronaria.5

Árbol de decisión

Utilizados tanto para la clasificación como para la regresión, los árboles de decisión dividen los conjuntos de datos en grupos progresivamente más pequeños en una serie de juicios de clasificación binaria. La estructura resultante se asemeja a un árbol, ramificándose desde un juicio inicial hacia hojas o nodos posteriores. 

Un diagrama de un algoritmo de árbol de decisión

La naturaleza similar a un diagrama de flujo de los árboles de decisión los convierte en uno de los modelos más intuitivos de entender para los usuarios empresariales. Fáciles de visualizar, los árboles de decisión aportan transparencia al proceso de clasificación al representar claramente los procesos de decisión y los criterios utilizados para categorizar los datos. 

Bosque aleatorio

El bosque aleatorio es una técnica de conjunto que combina la salida de múltiples árboles de decisión en un único resultado. El "bosque" resultante mejora la precisión de la predicción con respecto a la de un solo árbol, al tiempo que contrarresta el sobreajuste. Al igual que los árboles de decisión, los bosques aleatorios pueden gestionar tanto tareas de clasificación como de regresión. 

Diagrama de un algoritmo de bosque aleatorio

Los algoritmos de bosque aleatorio crean múltiples árboles de decisión para cada tarea, agregan la predicción de todos los árboles y luego eligen la respuesta más popular como resultado definitivo. Cada árbol considera un subconjunto aleatorio de características de datos, lo que ayuda a garantizar una baja correlación entre los árboles. 

Máquina de vectores de soporte (SVM)

Los algoritmos de máquina de vectores de soporte (SVM) trazan puntos de datos en un espacio multidimensional, con el número de dimensiones correspondiente al número de características de los datos. El objetivo del algoritmo es descubrir la línea óptima, también conocida como hiperplano o boundary, que mejor divide los puntos de datos en categorías. 

El hiperplano óptimo es el que tiene el margen más amplio, que es la distancia entre el hiperplano y los puntos de datos más cercanos de cada clase. Estos puntos de datos cercanos se conocen como vectores de soporte. Los modelos que separan los datos con un hiperplano son modelos lineales, pero los algoritmos SVM también pueden manejar tareas de clasificación no lineal con conjuntos de datos más complejos. 

La regresión logística, los árboles de decisión, los bosques aleatorios y los algoritmos SVM son ejemplos de aprendices ansiosos: algoritmos que construyen modelos a partir de datos de entrenamiento y luego aplican esos modelos a predicciones futuras. El entrenamiento lleva más tiempo, pero una vez que el algoritmo crea un buen modelo, las predicciones son más rápidas. 

K vecinos más cercanos (KNN)

Los algoritmos K-vecinos más cercanos (KNN) asignan puntos de datos a un espacio multidimensional. A continuación, agrupa los puntos de datos con valores de características similares en grupos separados, o clases. Para clasificar nuevas muestras de datos, el clasificador analiza el número k de puntos más cercanos a los nuevos datos, cuenta los miembros de cada clase que componen el subconjunto vecino y devuelve esa proporción como la estimación de clase para el nuevo punto de datos. 

En otras palabras, el modelo asigna un nuevo punto de datos a la clase que comprenda la mayoría de los vecinos de ese punto. Los modelos KNN son aprendices perezosos: algoritmos que no construyen inmediatamente un modelo a partir de datos de entrenamiento, sino que se refieren a datos de entrenamiento y comparan nuevos datos con ellos. Por lo general, estos modelos tardan más en hacer predicciones que los estudiantes ansiosos. 

Los modelos KNN suelen comparar la distancia entre los puntos de datos con la distancia euclidiana:6

Ecuación de la distancia euclidiana

El vecino más cercano aproximado (ANN) es una variante del KNN. En espacios de datos de alta dimensión, es costoso desde el punto de vista computacional encontrar los vecinos exactos de un punto de datos. La reducción de la dimensionalidad y el ANN son dos soluciones a este problema. 

En lugar de encontrar el vecino más próximo exacto de un punto de datos dado, el RNA encuentra un vecino más cercano aproximado dentro de una distancia determinada. Investigaciones recientes han mostrado resultados prometedores para ANN en el contexto de la clasificación multietiqueta.7

Naive Bayes

Basándose en el teorema de Bayes, los clasificadores Naive Bayes calculan la probabilidad posterior de las predicciones de clase. Naive Bayes actualiza las predicciones de clase iniciales, o probabilidades previas, con cada nuevo dato. 

Con un predictor de diabetes, los datos médicos del paciente (presión arterial, edad, niveles de azúcar en sangre, etc.) son las variables independientes. Un clasificador bayesiano combina la prevalencia actual de diabetes en una población (probabilidad a priori) con la probabilidad condicional de que los valores de los datos médicos del paciente aparezcan en alguien con diabetes. 

Los clasificadores Naive Bayes siguen la ecuación de la regla de Bayes:8

Ecuación de la regla de Bayes

El Naive Bayes se conoce como clasificador generativo. Al utilizar los valores de las variables de una observación, el clasificador bayesiano calcula qué clase es más probable que haya generado la observación. 

Los investigadores del procesamiento del lenguaje natural (PLN) han aplicado ampliamente Naïve Bayes para tareas de clasificación de textos, como el análisis de sentimientos. Utilizando un modelo de bag of words, en el que cada palabra constituye una variable, el clasificador Naive Bayes predice si una clase positiva o negativa produjo el texto en cuestión.9

Métodos de conjunto

Los métodos de conjunto y las técnicas de machine learning combinan varios modelos más pequeños en un único clasificador para mejorar los resultados. Los métodos de conjunto profundo reúnen varios modelos de deep learning para crear clasificadores de conjunto aún más potentes. Los conjuntos con aprendices profundos pueden manejar tareas complejas de clasificación multietiqueta. 

El aumento de gradiente es un método de conjunto que ha demostrado aumentar la precisión de la predicción. Es un tipo de boosting, una técnica de conjunto en la que varios aprendices débiles aprenden unos de otros en secuencia para mejorar los resultados con cada iteración.

Modelos de transformadores en clasificación

Aunque normalmente se utilizan para tareas de PLN, los modelos de transformadores también se han aplicado a problemas de clasificación. Los modelos de transformadores como GPT y Claude utilizan mecanismos de autoatención para centrarse en las partes más relevantes de un conjunto de datos de entrada. La codificación posicional se utiliza para informar al modelo sobre dónde se encuentra cada punto de datos en una secuencia. 

Métodos de evaluación del aprendizaje de clasificación

Los investigadores y desarrolladores eligen ciertas métricas de evaluación para los modelos de clasificación en función de la tarea de clasificación específica. Todos miden la precisión con la que los aprendices, o clasificadores, predicen con exactitud las clases del modelo. 

Algunas de las métricas de evaluación más populares son: 

  • Exactitud 
  • Precisión 
  • Recuperación 
  • Puntuación de la F1
  • Matriz de confusión
  • Curva ROC

Los verdaderos positivos (TP) son aquellas muestras de datos que el modelo predice correctamente en su clase respectiva. Los falsos positivos (FP) son aquellos casos de clase negativa identificados incorrectamente como casos positivos. Los falsos negativos (FN) son instancias positivas reales predichas erróneamente como negativas. Los negativos verdaderos (TN) son las instancias de clase negativas reales que el modelo clasifica con precisión como negativas.

exactitud

La exactitud es la proporción de verdaderos positivos con respecto a todas las predicciones del conjunto de datos. Mide la frecuencia con la que un modelo de machine learning predice correctamente un resultado, en este caso, la clase adecuada para un punto de datos. 

La exactitud ofrece una visión general de alto nivel del rendimiento de un modelo, pero no revela si un modelo es mejor para predecir ciertas clases sobre otras. En los casos en que los conjuntos de datos están muy desequilibrados, centrarse en la precisión puede hacer que un modelo ignore todos los conjuntos de datos más pequeños y prediga todos los resultados como la clase mayoritaria. En esta situación, la exactitud general seguirá siendo alta. 

Un filtro de spam tendría una gran exactitud si la mayoría de sus conjeturas son correctas, incluso si pasa por alto la mayoría de los correos electrónicos spam reales. 

Precisión

La precisión o valor predicho positivo (PPV) es la proporción de predicciones de clase positivas que pertenecen a la clase especificada. La precisión revela si un modelo predice correctamente la clase objetivo, lo que lo hace útil para tareas de clasificación desequilibradas o cuando el coste de los falsos positivos es alto. 

En un filtro de spam, la precisión muestra cuántos de los correos electrónicos no deseados detectados son spam. Los modelos que clasifican incorrectamente los datos como falsos positivos tienen una precisión baja, mientras que los modelos con menos falsos positivos tienen una precisión alta.10

Fórmula de precisión

Recuperación

También conocida como sensibilidad o tasa de verdaderos positivos (TPR), la recuperación denota el porcentaje de instancias de clase detectadas por un modelo. La recuperación muestra la frecuencia con la que un modelo detecta miembros de la clase objetivo en el conjunto de datos. Para un filtro de spam, la recuperación muestra la cantidad de correos electrónicos spam reales que el modelo identifica como spam.11

Puntuación de la F1

La precisión y la recuperación comparten una relación inversa. A medida que un clasificador devuelve más verdaderos positivos que muestran una mayor recuperación, puede clasificar erróneamente las no instancias, generando falsos positivos y disminuyendo la precisión. La puntuación F1 resuelve esta compensación combinando precisión y recuperación para representar la precisión total de clase de un modelo.12

Fórmula de puntuación F

Visualización de datos y evaluación de modelos

Las herramientas de visualización de datos ayudan a ilustrar los hallazgos en el análisis de datos. Los científicos de datos y los investigadores de machine learning usan dos herramientas principales para visualizar el rendimiento del clasificador: 

  • La matriz de confusión, una tabla que muestra los valores previstos frente a los reales. 

  • La curva ROC, un gráfico que representa la proporción de verdaderos positivos y verdaderos negativos.

Matriz de confusión

La matriz de confusión es una tabla que representa los valores predichos y reales de una clase. Los cuadros de la matriz representan el número de verdaderos positivos, falsos positivos, falsos negativos y verdaderos negativos. El total de estos valores es el número total de predicciones del modelo.13

ejemplo de matriz de confusión binaria

Curva ROC

Una curva de característica operativa del receptor (ROC) visualiza la proporción de verdaderos positivos con respecto a los verdaderos negativos. El gráfico traza la tasa de verdaderos positivos frente a la verdadera tasa negativa para cada umbral utilizado en la clasificación del modelo. La estadística de área bajo la curva (AUC) surge de la curva ROC. 

La AUC mide la probabilidad de que un positivo seleccionado al azar tenga una puntuación de confianza más alta que un negativo aleatorio. Los valores de AUC oscilan entre 0 y 1. Una puntuación de 0 significa que el modelo puntúa todos los negativos con mayores probabilidades que los positivos, mientras que 1 significa que el modelo puntúa todos los positivos con mayor probabilidad.14

Soluciones relacionadas
IBM watsonx.ai

Entrene, valide, ajuste e implemente IA generativa, modelos fundacionales y capacidades de machine learning con IBM watsonx.ai, un estudio empresarial de nueva generación para desarrolladores de IA. Cree aplicaciones de IA en menos tiempo y con menos datos.

Descubra watsonx.ai
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia líder en IA del sector de IBM y junto a su cartera de soluciones.

Explore las soluciones de IA
Consultoría y servicios de IA

Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Explore los servicios de IA
Dé el siguiente paso

Obtenga acceso único a capacidades que abarcan el ciclo de vida de desarrollo de la IA. Produzca potentes soluciones de IA con interfaces intuitivas, flujos de trabajo y acceso a API y SDK estándar del sector.

Explore watsonx.ai Solicite una demostración en directo
Notas a pie de página

1 Chris Drummond. “Classification”. Encyclopedia of Machine Learning and Data Mining. Springer. 2017.

2. Jaiwei Han, Micheline Kamber y Jian Pei, Data Mining: Concepts and Techniques. 3ª edición. Morgan Kaufman, 2012.

3. Max Kuhn y Kjell Johnson, Applied Predictive Modeling, Springer, 2016.

4. Max Kuhn y Kjell Johnson, Applied Predictive Modeling, Springer, 2016. Gareth James, Daniela Witten, Trevor Hastie, Robert Tibshirani y Jonathan Taylor, An Introduction to Statistical Learning with Applications in Python, Springer, 2023

5. Lisa X. Deng, Abigail May Khan, David Drajpuch, Stephanie Fuller, Jonathan Ludmir, Christopher E. Mascio, Sara L. Partington, Ayesha Qadeer, Lynda Tobin, Adrienne H. Kovacs y Yuli Y. Kim, "Prevalence and Correlates of Post-traumatic Stress Disorder in Adults With Congenital Heart Disease," The American Journal of Cardiology, Vol. 117. N.º 5. 2016. págs. 853-857, https://www.sciencedirect.com/science/article/abs/pii/S0002914915023590

6. Max Kuhn y Kjell Johnson, Applied Predictive Modeling, Springer, 2016. Kevin Murphy, Machine Learning: A Probabilistic Perspective, MIT Press, 2012.

7. Ville Hyvönen, Elias Jääsaari, Teemu Roos, “A Multilabel Classification Framework for Approximate Nearest Neighbor Search,” Journal of Machine Learning Research, Vol. 25, No. 46, 2024, págs. 1−51, https://www.jmlr.org/papers/v25/23-0286.html  

8. Max Kuhn y Kjell Johnson, Applied Predictive Modeling, Springer, 2016. William Bolstad y James Curran. Introduction to Bayesian Statistics. 3ª edición. Wiley. 2016.

9. Daniel Jurafsky y James Martin, Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition, 3ª edición, 2023.

10. Ethan Zhang y Yi Zhang, “Precision,” Encyclopedia of Database Systems, Springer, 2018.

11. Ethan Zhang y Yi Zhang, “Recall,” Encyclopedia of Database Systems, Springer, 2018.

12. Ben Carterette, “Precision and Recall,” Encyclopedia of Database Systems, Springer, 2018.

13. Kai Ming Ting, “Confusion matrix,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.

14. Peter Flach, “ROC Analysis,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.