Ajustar un modelo XGBoost - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Ajustar un modelo XGBoost

El ajuste de modelo automático, también conocido como ajuste de hiperparámetros, encuentra la mejor versión de un modelo ejecutando distintas tareas que prueban una serie de hiperparámetros en los conjuntos de datos de validación y entrenamiento. Puede elegir tres tipos de hiperparámetros:

  • Una función objective de aprendizaje que se debe optimizar durante el entrenamiento con modelos.

  • Una eval_metric para usar al evaluar el rendimiento del modelo durante la validación.

  • Un conjunto de hiperparámetros y un rango de valores para emplear al ajustar el modelo automáticamente.

Usted elige la métrica de evaluación del conjunto de métricas de evaluación que calcula el algoritmo. El ajuste de modelo automático busca los hiperparámetros elegidos para encontrar la combinación de valores que genere el modelo que optimiza la métrica de evaluación.

nota

El ajuste automático del modelo para XGBoost 0.90 solo está disponible en los SageMaker SDK de Amazon, no en la consola. SageMaker

Para obtener más información acerca del ajuste de modelos, consulte Realice el ajuste automático del modelo con SageMaker.

Métricas de evaluación calculadas por el algoritmo XGBoost

El algoritmo XGBoost calcula las siguientes métricas para utilizarlas en la validación del modelo. Al ajustar el modelo, elija una de estas métricas para evaluarlo. Para obtener una lista completa de valores eval_metric, consulte XGBoost Learning Task Parameters

Nombre de métrica Descripción Dirección de optimización
validation:accuracy

Tasa de clasificación, calculada como #(correctos)/#(todos los casos).

Maximizar

validation:auc

Área bajo la curva.

Maximizar

validation:error

Tasa de errores de clasificación binaria, calculada como #(casos erróneos)/#(todos los casos).

Minimizar

validation:f1

Indicador de precisión de clasificación, calculado como la media armónica de precisión y recuperación.

Maximizar

validation:logloss

Probabilidad de registro negativa.

Minimizar

validation:mae

Error absoluto medio.

Minimizar

validation:map

Precisión media.

Maximizar

validation:merror

Tasa de errores de clasificación multiclase, calculada como #(casos erróneos)/#(todos los casos).

Minimizar

validation:mlogloss

Probabilidad de registro negativa para la clasificación multiclase.

Minimizar

validation:mse

Error cuadrático medio.

Minimizar

validation:ndcg

Ganancia acumulativa con descuento normalizada.

Maximizar

validation:rmse

Raíz del error cuadrático medio.

Minimizar

Hiperparámetros de XGBoost ajustables

Ajuste el modelo XGBoost con los siguientes hiperparámetros. Los hiperparámetros que tienen el mayor efecto en la optimización de las métricas de evaluación de XGBoost son alpha, min_child_weight, subsample, eta y num_round.

Nombre del parámetro Tipo de parámetro Intervalos recomendados
alpha

ContinuousParameterRanges

MinValue: 0,: 1000 MaxValue

colsample_bylevel

ContinuousParameterRanges

MinValue: 0,1, MaxValue: 1

colsample_bynode

ContinuousParameterRanges

MinValue: 0,1, MaxValue: 1

colsample_bytree

ContinuousParameterRanges

MinValue: 0,5, MaxValue: 1

eta

ContinuousParameterRanges

MinValue: 0,1, MaxValue 0,5

gamma

ContinuousParameterRanges

MinValue: 0, MaxValue 5

lambda

ContinuousParameterRanges

MinValue: 0, MaxValue 1000

max_delta_step

IntegerParameterRanges

[0, 10]

max_depth

IntegerParameterRanges

[0, 10]

min_child_weight

ContinuousParameterRanges

MinValue: 0, MaxValue 120

num_round

IntegerParameterRanges

[1, 4000]

subsample

ContinuousParameterRanges

MinValue: 0,5, MaxValue: 1