Textklassifizierung – TensorFlow Hyperparameter - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Textklassifizierung – TensorFlow Hyperparameter

Hyperparameter sind Parameter, die festgelegt werden, bevor ein Machine Learning-Modell mit dem Lernen beginnt. Die folgenden Hyperparameter werden vom SageMaker integrierten Objekterkennungs- TensorFlow Algorithmus von Amazon unterstützt. Weitere Informationen zur Hyperparameter-Optimierung finden Sie unter Optimieren einer Textklassifizierung – TensorFlow Modell.

Name des Parameters Beschreibung
batch_size

Die Batch-Größe für die Schulung. Für das Training auf Instanzen mit mehreren GPUs wird diese Batchgröße für alle GPUs verwendet.

Gültige Werte: positive Ganzzahl.

Standardwert: 32.

beta_1

Die Beta1-Version für die"adam" und die "adamw" Optimierer. Stellt die exponentielle Zerfallsrate für die Schätzungen des ersten Moments dar. Wird für andere Optimierer ignoriert.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.9.

beta_2

Die Beta2 für die Optimierer sind "adam" und "adamw". Stellt die exponentielle Abklingrate für die Schätzungen des zweiten Moments dar. Wird für andere Optimierer ignoriert.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.999.

dropout_rate

Die Dropout-Rate für die Dropout-Schicht in der obersten Klassifizierungsschicht. Wird nur verwendet, wenn für reinitialize_top_layer der Wert "True" festgelegt ist.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.2

early_stopping

Auf "True" eingestellt, um die Logik zum vorzeitigen Abbruch während des Trainings zu verwenden. Falls "False", wird vorzeitiges Abbrechen nicht verwendet.

Gültige Werte: Zeichenfolge, entweder: ("True" oder "False").

Standardwert: "False".

early_stopping_min_delta Die geringste Änderung, die erforderlich ist, um als Verbesserung zu gelten. Eine absolute Änderung, die unter dem Wert von early_stopping_min_delta liegt, gilt nicht als Verbesserung. Wird nur verwendet, wenn für early_stopping der Wert "True" festgelegt ist.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.0.

early_stopping_patience

Die Anzahl der Epochen, in denen die Ausbildung ohne Verbesserung fortgesetzt wird. Wird nur verwendet, wenn für early_stopping der Wert "True" festgelegt ist.

Gültige Werte: positive Ganzzahl.

Standardwert: 5.

epochs

Die Anzahl der Schulungsepochen.

Gültige Werte: positive Ganzzahl.

Standardwert: 10.

epsilon

Das Epsilon für "adam", "rmsprop", "adadelta", und "adagrad". Normalerweise auf einen kleinen Wert eingestellt, um eine Division durch 0 zu vermeiden. Wird für andere Optimierer ignoriert.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 1e-7.

initial_accumulator_value

Der Startwert für die Akkumulatoren oder die Impulswerte pro Parameter für den "adagrad" Optimierer. Wird für andere Optimierer ignoriert.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.0001.

learning_rate Die Lernrate des Optimierers.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.001.

momentum

Der Schwung für die "sgd" und "nesterov" Optimierer. Wird für andere Optimierer ignoriert.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.9.

optimizer

Der Optimierer-Typ. Weitere Informationen finden Sie unter Optimierer in der - TensorFlow Dokumentation.

Gültige Werte: Zeichenfolge, einer der folgenden Werte: ("adamw", "adam", "sgd", "nesterov", "rmsprop", "adagrad" , "adadelta").

Standardwert: "adam".

regularizers_l2

Der L2-Regularisierungsfaktor für die dichte Schicht in der Klassifizierungsschicht. Wird nur verwendet, wenn für reinitialize_top_layer der Wert "True" festgelegt ist.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.0001.

reinitialize_top_layer

Wenn dieser Wert auf "Auto" gesetzt ist, werden die Parameter der obersten Klassifikationsschicht während der Feinabstimmung neu initialisiert. Beim inkrementellen Training werden die Parameter der obersten Klassifikationsschicht nur dann neu initialisiert, wenn sie auf "True" gesetzt sind.

Gültige Werte: Zeichenfolge, einer der folgenden Werte: ("Auto", "True" oder "False").

Standardwert: "Auto".

rho

Der Abzinsungsfaktor für den Gradienten der "adadelta" und "rmsprop" Optimierer. Wird für andere Optimierer ignoriert.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.95.

train_only_on_top_layer

Falls "True", werden nur die Parameter der obersten Klassifikationsschicht fein abgestimmt. Falls "False", werden alle Modellparameter fein abgestimmt.

Gültige Werte: Zeichenfolge, entweder: ("True" or "False").

Standardwert: "False".

validation_split_ratio

Der Anteil der Trainingsdaten, der nach dem Zufallsprinzip aufgeteilt werden soll, um Validierungsdaten zu erstellen. Wird nur verwendet, wenn keine Validierungsdaten über den validation Kanal bereitgestellt werden.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.2.

warmup_steps_fraction

Der Bruchteil der Gesamtzahl der Gradientenaktualisierungsschritte, bei denen die Lernrate beim Aufwärmen von 0 auf die anfängliche Lernrate ansteigt. Wird nur mit dem adamw Optimizer verwendet.

Gültige Werte: Float, Bereich: [0.0, 1.0].

Standardwert: 0.1.