Clasificación de texto: TensorFlow hiperparámetros - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Clasificación de texto: TensorFlow hiperparámetros

Los hiperparámetros son parámetros que se establecen antes de que un modelo de machine learning comience a aprender. Los siguientes hiperparámetros son compatibles con el TensorFlow algoritmo SageMaker integrado de detección de objetos de Amazon. Para obtener más información sobre el ajuste de hiperparámetros, consulte Ajuste un modelo de clasificación de texto TensorFlow .

Nombre del parámetro Descripción
batch_size

El tamaño del lote para la capacitación. Para el entrenamiento en instancias con varias GPU, este tamaño de lote se utiliza en todas las GPU.

Valores válidos: número entero positivo.

Valor predeterminado: 32.

beta_1

El beta1 para los optimizadores "adam" y "adamw". Representa la tasa de degradación exponencial para las estimaciones del primer momento. No se tiene en cuenta para otros optimizadores.

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.9.

beta_2

El beta2 para los optimizadores "adam" y "adamw". Representa la tasa de degradación exponencial para las estimaciones del segundo momento. No se tiene en cuenta para otros optimizadores.

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.999.

dropout_rate

La tasa de eliminación en la capa de eliminación, dentro de la capa de clasificación superior. Solo se usa cuando reinitialize_top_layer está establecido en "True".

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.2

early_stopping

Se establece en "True" a fin de usar una lógica de detención temprana durante el entrenamiento. Si es "False", no se utiliza la interrupción temprana.

Valores válidos: cadena ("True" o "False").

Valor predeterminado: "False".

early_stopping_min_delta El cambio mínimo necesario para considerarse una mejora. Un cambio absoluto inferior al valor de early_stopping_min_delta no se considera mejora. Solo se usa cuando early_stopping está establecido en "True".

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.0.

early_stopping_patience

El número de epochs (fechas de inicio) para seguir entrenando sin que haya mejoras. Solo se usa cuando early_stopping está establecido en "True".

Valores válidos: número entero positivo.

Valor predeterminado: 5.

epochs

El número de fechas de inicio de capacitación.

Valores válidos: número entero positivo.

Valor predeterminado: 10.

epsilon

El valor épsilon para los optimizadores "adam", "rmsprop", "adadelta" y "adagrad". Se suele establecer en un valor pequeño para evitar la división por 0. No se tiene en cuenta para otros optimizadores.

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 1e-7.

initial_accumulator_value

El valor inicial de los acumuladores o los valores de impulso por parámetro del optimizador "adagrad". No se tiene en cuenta para otros optimizadores.

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.0001.

learning_rate La tasa de aprendizaje del optimizador.

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.001.

momentum

El valor de impulso para los optimizadores "sgd" y "nesterov". No se tiene en cuenta para otros optimizadores.

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.9.

optimizer

El tipo de optimizador. Para obtener más información, consulte Optimizadores en la TensorFlow documentación.

Valores válidos: cadena, "adamw", "adam", "sgd", "nesterov", "rmsprop", "adagrad" o "adadelta".

Valor predeterminado: "adam".

regularizers_l2

El factor de regularización L2 de la capa densa en la capa de clasificación. Solo se usa cuando reinitialize_top_layer está establecido en "True".

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.0001.

reinitialize_top_layer

Si se establece en "Auto", los parámetros de la capa de clasificación superior se reinicializan durante el ajuste. Para el entrenamiento incremental, los parámetros de la capa de clasificación superior no se reinicializan, a no ser que se establezca en "True".

Valores válidos: cadena, "Auto", "True" o "False".

Valor predeterminado: "Auto".

rho

El factor de descuento para el gradiente de los optimizadores "adadelta" y "rmsprop". No se tiene en cuenta para otros optimizadores.

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.95.

train_only_on_top_layer

Si es "True", solo se ajustan los parámetros de la capa de clasificación superior. Si es "False", todos los parámetros del modelo se ajustan.

Valores válidos: cadena ("True" o "False").

Valor predeterminado: "False".

validation_split_ratio

La fracción de datos de entrenamiento que se va a dividir aleatoriamente para crear datos de validación. Solo se usa si no se suministran datos de validación a través del canal validation.

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.2.

warmup_steps_fraction

La fracción del número total de pasos de actualización del gradiente; la tasa de aprendizaje aumenta desde 0 hasta la tasa de aprendizaje inicial durante la fase de preparación. Solo se usa con el optimizador adamw.

Valores válidos: flotante, con el rango [0.0, 1.0].

Valor predeterminado: 0.1.