Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Régler un XGBoost modèle
Le réglage de modèle automatique, ou réglage d'hyperparamètre, détecte la meilleure version d'un modèle en exécutant plusieurs tâches qui testent une plage d'hyperparamètres sur vos jeu de données d'entraînement et de valisation. Vous choisissez trois types d'hyperparamètres :
-
une fonction
objective
d'apprentissage à optimiser pendant l'entraînement du modèle ; -
une métrique
eval_metric
à utiliser pour évaluer les performances du modèle lors de la validation ; -
un ensemble d'hyperparamètres et une plage de valeurs à utiliser pour régler automatiquement le modèle.
Vous choisissez la métrique d'évaluation parmi un ensemble de métriques d'évaluation que l'algorithme calcule. Le réglage de modèle automatique recherche parmi les hyperparamètres choisis la combinaison de valeurs qui produira un modèle permettant d'optimiser la métrique d'évaluation.
Note
Le réglage automatique du modèle pour XGBoost 0,90 n'est disponible que depuis Amazon SageMaker AI SDKs, et non depuis la console SageMaker AI.
Pour plus d'informations sur le réglage de modèle, consultez Réglage automatique du modèle grâce à l' SageMaker IA.
Métriques d'évaluation calculées par l' XGBoostalgorithme
L' XGBoost algorithme calcule les métriques suivantes à utiliser pour la validation du modèle. Lors du réglage du modèle, choisissez l'une de ces métriques pour évaluer le modèle. Pour obtenir la liste complète des eval_metric
valeurs valides, reportez-vous à la section Paramètres des tâches XGBoost d'apprentissage
Nom de la métrique | Description | Orientation de l'optimisation |
---|---|---|
validation:accuracy |
Taux de classification, calculé sous la forme #(right)/#(all cases). |
Agrandir |
validation:auc |
Aire sous une courbe (AUC, Area Under a Curve). |
Agrandir |
validation:error |
Taux d'erreurs de classification binaire, calculé comme Nbre cas erronés/Nbre total de cas. |
Réduire |
validation:f1 |
Indicateur de précision de classification, calculé en tant que moyenne harmonique de la précision et du rappel. |
Agrandir |
validation:logloss |
Probabilité de journalisation négative. |
Réduire |
validation:mae |
Erreur absolue moyenne. |
Réduire |
validation:map |
Précision moyenne. |
Agrandir |
validation:merror |
Taux d'erreurs de classification multiclasse, calculé comme Nbre cas erronés/Nbre total de cas. |
Réduire |
validation:mlogloss |
Probabilité de journalisation négative pour la classification multiclasse. |
Réduire |
validation:mse |
Erreur quadratique moyenne. |
Réduire |
validation:ndcg |
NDCG (Normalized Discounted Cumulative Gain). |
Agrandir |
validation:rmse |
Racine carrée de l'erreur quadratique moyenne (RMSE) |
Réduire |
Hyperparamètres réglables XGBoost
Réglez le XGBoost modèle avec les hyperparamètres suivants. Les hyperparamètres qui ont le plus d'effet sur l'optimisation des métriques XGBoost d'évaluation sont les suivants : alpha
min_child_weight
,subsample
,eta
, etnum_round
.
Nom du paramètre | Type de paramètre | Plages recommandées |
---|---|---|
alpha |
ContinuousParameterRanges |
MinValue: 0, MaxValue 100 |
colsample_bylevel |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue : 1 |
colsample_bynode |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue : 1 |
colsample_bytree |
ContinuousParameterRanges |
MinValue: 0,5, MaxValue : 1 |
eta |
ContinuousParameterRanges |
MinValue: 0,1, MaxValue 0,5 |
gamma |
ContinuousParameterRanges |
MinValue: 0, MaxValue 5 |
lambda |
ContinuousParameterRanges |
MinValue: 0, MaxValue 100 |
max_delta_step |
IntegerParameterRanges |
[0, 10] |
max_depth |
IntegerParameterRanges |
[0, 10] |
min_child_weight |
ContinuousParameterRanges |
MinValue: 0, MaxValue 120 |
num_round |
IntegerParameterRanges |
[1, 4000] |
subsample |
ContinuousParameterRanges |
MinValue: 0,5, MaxValue : 1 |