Opciones de generación de nodo XGBoost Linear
Utilice la pestaña Opciones de generación para especificar opciones de generación para el nodo XGBoost Linear, incluyendo opciones básicas como parámetros de aumento lineal y generación de modelos, y opciones de tareas de aprendizaje para objetivos. Para obtener información adicional sobre estas opciones, consulte los recursos en línea siguientes:
Básico
Optimización de hiper-parámetro (basada en Rbfopt). Seleccione esta opción para habilitar la optimización de hiper-parámetro basada en Rbfopt, que descubre automáticamente la combinación óptima de parámetros, de forma que el modelo conseguirá el índice de error previsto o inferior en las muestras. Si desea detalles sobre Rbfopt, consulte http://rbfopt.readthedocs.io/en/latest/rbfopt_settings.html.
Alfa. Término de regularización L1 en ponderaciones. Al aumentar este valor, el modelo será más conservador.
Lambda. Término de regularización L2 en ponderaciones. Al aumentar este valor, el modelo será más conservador.
Lambda bias. Término de regularización L2 en sesgo. (No hay ningún término de regularización L1 en sesgo porque no es importante.)
Número de ronda de aumento. Número de iteraciones de aumento.
Tarea de aprendizaje
Objetivo. Seleccione en los siguientes tipos de objetivo de tarea de aprendizaje: reg:linear, reg:logistic, reg:gamma, reg:tweedie, count:poisson, rank:pairwise, binary:logistic o multi.
Semilla aleatoria. Puede pulsar Generar para generar la semilla utilizada por el generador de números aleatorios.
| Valor de SPSS Modeler | Nombre de script (nombre de propiedad) | Parámetro de XGBoost |
|---|---|---|
| destino | TargetField |
|
| Predictores | InputFields |
|
| Lambda | lambda |
lambda |
| Alfa | alpha |
alpha |
| Lambda bias | lambdaBias |
lambda_bias |
| Redondeo de aumento de número | numBoostRound |
num_boost_round |
| Objetivo | objectiveType |
objective |
| Semilla aleatoria | random_seed |
seed |
1 "XGBoost Parameters" Scalable and Flexible Gradient Boosting. Web. © 2015-2016 DMLC.
2 "Plotting API" Scalable and Flexible Gradient Boosting. Web. © 2015-2016 DMLC.
3 "Scalable and Flexible Gradient Boosting." Web. © 2015-2016 DMLC.