¿Qué es la simulación Montecarlo?

La simulación de Montecarlo es un tipo de algoritmo computacional que utiliza un muestreo aleatorio repetido para obtener la probabilidad de que ocurra una serie de resultados.

También conocida como el Método de Montecarlo o una simulación de probabilidad múltiple, la Simulación de Montecarlo es una técnica matemática que se utiliza para estimar los posibles resultados de un evento incierto. El Método de Montecarlo fue inventado por John von Neumann y Stanislaw Ulam durante la Segunda Guerra Mundial para mejorar la toma de decisiones en condiciones inciertas. Debe su nombre a una conocida ciudad casino, llamada Mónaco, ya que el elemento de azar es fundamental en el planteamiento del modelo, similar a un juego de ruleta.

Desde su introducción, las simulaciones de Montecarlo han evaluado el impacto del riesgo en muchos escenarios de la vida real, como la inteligencia artificial, los precios de las acciones, la previsión de ventas, la gestión de proyectos y la fijación de precios. También proporcionan una serie de ventajas sobre los modelos predictivos con entradas fijas, como la capacidad de realizar análisis de sensibilidad o calcular la correlación de las entradas. El análisis de sensibilidad permite a los responsables de la toma de decisiones ver el impacto de cada variable en un resultado determinado, y la correlación les permite comprender las relaciones entre las variables de entrada.

¿Cómo funciona la simulación de Montecarlo?

A diferencia de un modelo de pronóstico normal, la simulación de Montecarlo predice un conjunto de resultados basados en un rango estimado de valores frente a un conjunto de valores de entrada fijos. En otras palabras, una simulación de Montecarlo construye un modelo de posibles resultados aprovechando una distribución de probabilidad, como una distribución uniforme o normal, para cualquier variable que tenga incertidumbre inherente. A continuación, vuelve a calcular los resultados una y otra vez, utilizando cada vez un conjunto diferente de números aleatorios entre los valores mínimo y máximo. En un experimento típico de Montecarlo, este ejercicio se puede repetir miles de veces para producir un gran número de resultados probables.

Las simulaciones de Montecarlo también se utilizan para predicciones a largo plazo debido a su precisión. A medida que aumenta el número de entradas, también crece el número de pronósticos, lo que le permite proyectar los resultados más lejos en el tiempo con más precisión. Cuando se completa una simulación de Montecarlo, arroja una serie de posibles resultados con la probabilidad de que se produzca cada resultado.

Un ejemplo simple de una simulación de Montecarlo es considerar el cálculo de la probabilidad de lanzar dos dados estándar. Hay 36 combinaciones de rollos de dados. Basándose en esto, puede calcular manualmente la probabilidad de un resultado concreto. Con una simulación de Montecarlo, puede simular lanzar los dados 10 000 veces (o más) para lograr predicciones más precisas.

Cómo usar los métodos de Montecarlo

Independientemente de la herramienta que utilice, las técnicas de Montecarlo constan de tres pasos básicos:

  1. Configure el modelo predictivo, identificando tanto la variable dependiente que debe predecirse como las variables independientes (también conocidas como variables de entrada, de riesgo o predictoras) que impulsarán la predicción.
  2. Especifique distribuciones de probabilidad de las variables independientes. Utilizar datos históricos y/o el juicio subjetivo del analista para definir una gama de valores probables y asignar pesos de probabilidad a cada uno.
  3. Ejecute simulaciones de manera repetida, generando valores aleatorios de las variables independientes. Haga esto hasta que se reúnan suficientes resultados para formar una muestra representativa del número casi infinito de combinaciones posibles.

Puede realizar tantas simulaciones Montecarlo como desee modificando los parámetros subyacentes que utiliza para simular los datos. Sin embargo, también querrá calcular el rango de variación dentro de una muestra mediante el cálculo de la varianza y la desviación típica, que son medidas de dispersión utilizadas habitualmente. La varianza de una variable dada es el valor esperado de la diferencia al cuadrado entre la variable y su valor esperado. La desviación típica es la raíz cuadrada de la varianza. Normalmente, las variaciones más pequeñas se consideran mejores.

Soluciones relacionadas
Cloud Functions

Ejecute el código de su aplicación sin servidores, escálelo automáticamente y no pague nada cuando no esté en uso.

Explore IBM Cloud Functions
SPSS Statistics

Obtenga conocimiento a partir de los datos que le ayudarán a resolver problemas de negocio y de investigación.

Explore IBM SPSS Statistics
Soluciones IBM Cloud

Híbrida. Abierta. Resiliente. Su plataforma y socio para la transformación digital.

Explorar las soluciones en la nube
Dé el siguiente paso

IBM SPSS Statistics ofrece análisis estadístico avanzado, una amplia biblioteca de algoritmos de machine learning, análisis de texto, extensibilidad de código abierto, integración con big data y una implementación fluida en aplicaciones.

Explorar SPSS Statistics Pruébelo gratis durante 30 días