Régler un XGBoost modèle - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Régler un XGBoost modèle

Le réglage de modèle automatique, ou réglage d'hyperparamètre, détecte la meilleure version d'un modèle en exécutant plusieurs tâches qui testent une plage d'hyperparamètres sur vos jeu de données d'entraînement et de valisation. Vous choisissez trois types d'hyperparamètres :

  • une fonction objective d'apprentissage à optimiser pendant l'entraînement du modèle ;

  • une métrique eval_metric à utiliser pour évaluer les performances du modèle lors de la validation ;

  • un ensemble d'hyperparamètres et une plage de valeurs à utiliser pour régler automatiquement le modèle.

Vous choisissez la métrique d'évaluation parmi un ensemble de métriques d'évaluation que l'algorithme calcule. Le réglage de modèle automatique recherche parmi les hyperparamètres choisis la combinaison de valeurs qui produira un modèle permettant d'optimiser la métrique d'évaluation.

Note

Le réglage automatique du modèle pour XGBoost 0,90 n'est disponible que depuis Amazon SageMaker AI SDKs, et non depuis la console SageMaker AI.

Pour plus d'informations sur le réglage de modèle, consultez Réglage automatique du modèle grâce à l' SageMaker IA.

Métriques d'évaluation calculées par l' XGBoostalgorithme

L' XGBoost algorithme calcule les métriques suivantes à utiliser pour la validation du modèle. Lors du réglage du modèle, choisissez l'une de ces métriques pour évaluer le modèle. Pour obtenir la liste complète des eval_metric valeurs valides, reportez-vous à la section Paramètres des tâches XGBoost d'apprentissage

Nom de la métrique Description Orientation de l'optimisation
validation:accuracy

Taux de classification, calculé sous la forme #(right)/#(all cases).

Agrandir

validation:auc

Aire sous une courbe (AUC, Area Under a Curve).

Agrandir

validation:error

Taux d'erreurs de classification binaire, calculé comme Nbre cas erronés/Nbre total de cas.

Réduire

validation:f1

Indicateur de précision de classification, calculé en tant que moyenne harmonique de la précision et du rappel.

Agrandir

validation:logloss

Probabilité de journalisation négative.

Réduire

validation:mae

Erreur absolue moyenne.

Réduire

validation:map

Précision moyenne.

Agrandir

validation:merror

Taux d'erreurs de classification multiclasse, calculé comme Nbre cas erronés/Nbre total de cas.

Réduire

validation:mlogloss

Probabilité de journalisation négative pour la classification multiclasse.

Réduire

validation:mse

Erreur quadratique moyenne.

Réduire

validation:ndcg

NDCG (Normalized Discounted Cumulative Gain).

Agrandir

validation:rmse

Racine carrée de l'erreur quadratique moyenne (RMSE)

Réduire

Hyperparamètres réglables XGBoost

Réglez le XGBoost modèle avec les hyperparamètres suivants. Les hyperparamètres qui ont le plus d'effet sur l'optimisation des métriques XGBoost d'évaluation sont les suivants : alphamin_child_weight,subsample,eta, etnum_round.

Nom du paramètre Type de paramètre Plages recommandées
alpha

ContinuousParameterRanges

MinValue: 0, MaxValue 100

colsample_bylevel

ContinuousParameterRanges

MinValue: 0,1, MaxValue : 1

colsample_bynode

ContinuousParameterRanges

MinValue: 0,1, MaxValue : 1

colsample_bytree

ContinuousParameterRanges

MinValue: 0,5, MaxValue : 1

eta

ContinuousParameterRanges

MinValue: 0,1, MaxValue 0,5

gamma

ContinuousParameterRanges

MinValue: 0, MaxValue 5

lambda

ContinuousParameterRanges

MinValue: 0, MaxValue 100

max_delta_step

IntegerParameterRanges

[0, 10]

max_depth

IntegerParameterRanges

[0, 10]

min_child_weight

ContinuousParameterRanges

MinValue: 0, MaxValue 120

num_round

IntegerParameterRanges

[1, 4000]

subsample

ContinuousParameterRanges

MinValue: 0,5, MaxValue : 1