El modelado mediante machine learning existe debido a la incertidumbre. Si pudiéramos asignar perfectamente las entradas a las salidas, no habría necesidad de modelos. Pero los datos del mundo real son desordenados, incompletos y ruidosos, por lo que modelamos probabilidades en lugar de certezas. Aprender sobre probabilidades establece los fundamentos de todo lo relacionado con machine learning y la inteligencia artificial (IA). Las teorías de probabilidades nos permiten comprender los datos que utilizamos para modelar de una manera bonita y elegante. Desempeña un papel crítico en el modelado de incertidumbres en las predicciones de los modelos de ML. Nos ayuda a cuantificar la probabilidad y las certezas de un modelo estadístico para que podamos medir con confianza los modelos de resultados que creamos. Adentrarse en el mundo de las probabilidades y aprender los fundamentos le ayudará a comprender la base de todos los modelos de aprendizaje estadístico y cómo se hacen sus predicciones. Aprenderá cómo podemos hacer inferencias y producir resultados probabilísticos.
Para aprender distribuciones populares y modelar sus datos con confianza, vayamos a lo básico y aclaremos algunas terminologías.
Variable aleatoria: representación numérica de un resultado de un fenómeno aleatorio. Es una variable cuyos valores posibles son resultados numéricos de un proceso aleatorio.
Variable aleatoria discreta: una variable aleatoria que puede tomar un número finito o infinito contable de valores distintos. Por ejemplo, el resultado de un lanzamiento de moneda (cara = 1, cruz = 0) o la cantidad de correos electrónicos no deseados recibidos en una hora.
Variable aleatoria continua: una variable aleatoria que puede tomar cualquier valor dentro de un rango determinado. Por ejemplo, la altura de una persona, la temperatura en una habitación o la cantidad de lluvia.
Evento: un conjunto de uno o más resultados de un proceso aleatorio. Por ejemplo, lanzar un número par en un dado (resultados: 2, 4, 6) o el abandono de un cliente.
Resultado: un único resultado posible de un experimento aleatorio. Por ejemplo, lanzar una moneda arroja "cara" o "cruz".
Probabilidad : una medida numérica de la probabilidad de que un evento ocurrirá, que va de 0 (imposible) a 1 (cierto).
Probabilidad condicional : la probabilidad del evento que ocurre, dado que ese evento ya ha ocurrido. Este paso es crucial en el ML, ya que a menudo queremos predecir un resultado dadas características específicas.
La probabilidad es una medida de la probabilidad de que ocurra un evento, de 0 (imposible) a 1 (cierto).
En machine learning, esto suele adoptar la forma de probabilidad condicional.
Ejemplo: un modelo de regresión logística podría decir
> “Dada la edad = 45 años, ingresos = 60 000 USD y el historial previo,
> la probabilidad de abandono es 0.82”.
Este ejemplo no significa que el cliente abandonará: es una creencia basada en los patrones estadísticos en los datos de entrenamiento.
En la era moderna de la IA generativa, los modelos probabilísticos, como la regresión logística, desempeñan un papel muy importante en la determinación de los resultados y salidas de un modelo. Este papel suele adoptar la forma de una función de activación en las capas de las redes neuronales.