Classificazione del testo - TensorFlow Iperparametri - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Classificazione del testo - TensorFlow Iperparametri

Gli iperparametri sono parametri impostati prima che un modello di machine learning inizi l'apprendimento. I seguenti iperparametri sono supportati dall' TensorFlow algoritmo Object Detection SageMaker integrato di Amazon. Per ulteriori informazioni sull'ottimizzazione iperparametri, consulta Ottimizzazione di una classificazione del testo - modello TensorFlow .

Nome parametro Descrizione
batch_size

Le dimensioni del batch per il training. Per l’addestramento su istanze con più GPU, questa dimensione del batch viene utilizzata tra le GPU.

Valori validi: numeri interi positivi.

Valore predefinito: 32.

beta_1

La beta1 per gli ottimizzatori "adam" e "adamw". Rappresenta la percentuale di decadimento esponenziale per stime di primo momento. Ignorato per altri ottimizzatori.

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.9.

beta_2

La beta2 per gli ottimizzatori "adam" e "adamw". Rappresenta la percentuale di decadimento esponenziale per stime di secondo momento. Ignorato per altri ottimizzatori.

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.999.

dropout_rate

La percentuale di dropout per il livello di dropout nel livello di classificazione superiore. Usato solo quando reinitialize_top_layer è impostato su "True".

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.2

early_stopping

Imposta su "True" per utilizzare la logica di arresto precoce durante l’addestramento. Se "False", l'arresto anticipato non viene utilizzato.

Valori validi: stringa: ("True" o "False").

Valore predefinito: "False".

early_stopping_min_delta La modifica minima necessaria per qualificarsi come miglioramento. Una variazione assoluta inferiore al valore di early_stopping_min_delta non si qualifica come miglioramento. Usato solo quando early_stopping è impostato su "True".

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.0.

early_stopping_patience

Il numero di epoche in cui continuare l’addestramento senza alcun miglioramento. Usato solo quando early_stopping è impostato su "True".

Valori validi: numeri interi positivi.

Valore predefinito: 5.

epochs

Il numero di epoche (Unix epochs) di training.

Valori validi: numeri interi positivi.

Valore predefinito: 10.

epsilon

L'epsilon per gli ottimizzatori "adam", "rmsprop", "adadelta" e "adagrad". Di solito è impostato su un piccolo valore per evitare la divisione per 0. Ignorato per altri ottimizzatori.

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 1e-7.

initial_accumulator_value

Il valore iniziale per gli accumulatori o i valori di momento per parametro per l'ottimizzatore "adagrad". Ignorato per altri ottimizzatori.

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.0001.

learning_rate La velocità di apprendimento dell'ottimizzatore.

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.001.

momentum

Il momento per gli ottimizzatori "sgd" e "nesterov". Ignorato per altri ottimizzatori.

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.9.

optimizer

Il tipo di ottimizzazione. Per ulteriori informazioni, consulta Optimizers nella TensorFlow documentazione.

Valori validi: stringa, uno dei seguenti valori: ("adamw", "adam", "sgd", "nesterov", "rmsprop", "adagrad", "adadelta").

Valore predefinito: "adam".

regularizers_l2

Il fattore di regolarizzazione L2 per il livello denso nel livello di classificazione. Usato solo quando reinitialize_top_layer è impostato su "True".

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.0001.

reinitialize_top_layer

Se impostato su "Auto", i parametri del livello di classificazione superiore vengono reinizializzati durante l’ottimizzazione. Per l'addestramento incrementale, i parametri del livello di classificazione superiore non vengono reinizializzati a meno che non siano impostati su "True".

Valori validi: stringa, uno dei seguenti valori: ("Auto", "True" o "False").

Valore predefinito: "Auto".

rho

Il fattore di sconto per il gradiente degli ottimizzatori "adadelta" e "rmsprop". Ignorato per altri ottimizzatori.

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.95.

train_only_on_top_layer

Se "True", solo i parametri del livello di classificazione superiore vengono ottimizzati. Se "False", tutti i parametri del modello vengono ottimizzati.

Valori validi: stringa: ("True" o "False").

Valore predefinito: "False".

validation_split_ratio

La frazione di dati di addestramento da dividere casualmente per creare dati di convalida. Utilizzata solo se i dati di convalida non vengono forniti attraverso il canale validation.

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.2.

warmup_steps_fraction

La frazione del numero totale di passaggi di aggiornamento del gradiente, in cui il tasso di apprendimento aumenta da 0 al tasso di apprendimento iniziale durante il riscaldamento. Utilizzato solo con l'ottimizzatore adamw.

Valori validi: float, intervallo: [0.0, 1.0].

Valore predefinito: 0.1.