Ottimizzare un modello XGBoost - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Ottimizzare un modello XGBoost

L'ottimizzazione automatica dei modelli, nota anche come ottimizzazione degli iperparametri, trova la versione migliore di un modello eseguendo molti processi che testano un intervallo di iperparametri sul set di dati di addestramento e di convalida. Puoi scegliere tre tipi di iperparametri:

  • una funzione di apprendimento objective da ottimizzare durante l’addestramento dei modelli

  • un eval_metric da utilizzare per valutare le prestazioni del modello durante la convalida

  • un insieme di iperparametri e un intervallo di valori per ciascuno da utilizzare quando si ottimizza automaticamente il modello

Scegli il parametro di valutazione dal set di parametri di valutazione calcolate dall'algoritmo. L'ottimizzazione automatica del modello ricerca gli iperparametri scelti per trovare la combinazione di valori che restituisce il modello che ottimizza il parametro di valutazione.

Nota

L'ottimizzazione automatica del modello per XGBoost 0.90 è disponibile solo dagli SageMaker SDK Amazon, non dalla console. SageMaker

Per ulteriori informazioni sull'ottimizzazione del modello, consulta Esegui l'ottimizzazione automatica del modello con SageMaker.

Parametri calcolati dall'algoritmo XGBoost

L'algoritmo XGBoost calcola i seguenti parametri da utilizzare per la convalida del modello. Durante l'ottimizzazione del modello, scegli uno di questi parametri per valutare il modello. Per un elenco completo di eval_metric validi, consulta Parametri XGBoost Learning Task

Nome parametro Descrizione Direzione dell'ottimizzazione
validation:accuracy

Velocità di classificazione, calcolata come #(a destra)/#(tutti i casi).

Massimizza

validation:auc

Area sottesa alla curva.

Massimizza

validation:error

Percentuale di errori della classificazione binaria, calcolata come n. (casi con errori)/n. (tutti i casi).

Minimizza

validation:f1

Indicatore della precisione della classificazione, calcolata come la media armonica di precisione e richiamo.

Massimizza

validation:logloss

Probabilità log negativa.

Minimizza

validation:mae

Media degli errori assoluti.

Minimizza

validation:map

Media della precisione media.

Massimizza

validation:merror

Percentuale di errori della classificazione multiclasse, calcolata come n. (casi con errori)/n. (tutti i casi).

Minimizza

validation:mlogloss

Probabilità log negativa per la classificazione multiclasse.

Minimizza

validation:mse

Errore quadratico medio.

Minimizza

validation:ndcg

Normalized Discounted Cumulative Gain.

Massimizza

validation:rmse

Radice dell'errore quadratico medio

Minimizza

Iperparametri XGBoost ottimizzabili

Ottimizza il modello XGBoost con i seguenti iperparametri. Gli iperparametri che hanno il maggiore impatto sull'ottimizzazione dei parametri di valutazione di XGBoost sono: alpha, min_child_weight, subsample, eta e num_round.

Nome parametro Tipo parametro Intervalli consigliati
alpha

ContinuousParameterIntervalli

MinValue: 0, MaxValue: 100

colsample_bylevel

ContinuousParameterIntervalli

MinValue: 0,1, MaxValue: 1

colsample_bynode

ContinuousParameterIntervalli

MinValue: 0,1, MaxValue: 1

colsample_bytree

ContinuousParameterIntervalli

MinValue: 0,5, MaxValue: 1

eta

ContinuousParameterIntervalli

MinValue: 0,1, MaxValue 0,5

gamma

ContinuousParameterIntervalli

MinValue: 0, MaxValue 5

lambda

ContinuousParameterIntervalli

MinValue: 0, MaxValue: 100

max_delta_step

IntegerParameterIntervalli

[0, 10]

max_depth

IntegerParameterIntervalli

[0, 10]

min_child_weight

ContinuousParameterIntervalli

MinValue: 0, MaxValue: 120

num_round

IntegerParameterIntervalli

[1, 4000]

subsample

ContinuousParameterIntervalli

MinValue: 0,5, MaxValue: 1