Hiperparámetros de segmentación semántica - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Hiperparámetros de segmentación semántica

En las siguientes tablas se enumeran los hiperparámetros compatibles con el algoritmo de segmentación SageMaker semántica de Amazon para la arquitectura de red, las entradas de datos y el entrenamiento. Especifique la segmentación semántica para la capacitación en el AlgorithmName de la solicitud de CreateTrainingJob.

Hiperparámetros de arquitectura de red

Nombre del parámetro Descripción
backbone

El núcleo que se va a usar para el componente de codificador del algoritmo.

Opcional

Valores válidos: resnet-50, resnet-101

Valor predeterminado: resnet-50

use_pretrained_model

Si un modelo capacitado previamente se va a usar para el núcleo.

Opcional

Valores válidos: True, False

Valor predeterminado: True

algorithm

El algoritmo que se va a usar para la segmentación semántica.

Opcional

Valores válidos:

Valor predeterminado: fcn

Hiperparámetros de datos

Nombre del parámetro Descripción
num_classes

El número de clases que se va a segmentar.

Obligatorio

Valores válidos: 2 ≤ entero positivo ≤ 254

num_training_samples

El número de muestras de los datos de capacitación. El algoritmo usa este valor para configurar el programador de la tasa de aprendizaje.

Obligatorio

Valores válidos: número entero positivo

base_size

Define cómo se reescalan las imágenes antes de recortar. Las imágenes se reescalan de tal manera que la longitud de tamaño largo se establece en el base_size multiplicado por un número aleatorio de 0,5 a 2,0, y el tamaño corto se calcula para preservar la relación de aspecto.

Opcional

Valores válidos: número entero positivo > 16

Valor predeterminado: 520

crop_size

El tamaño de imagen de la entrada durante el entrenamiento. Reescalamos aleatoriamente la imagen de entrada en función del base_size y, a continuación, realizamos un recorte cuadrado aleatorio con una longitud lateral igual a crop_size. El crop_size de entrada se redondeará automáticamente hasta múltiplos de 8.

Opcional

Valores válidos: número entero positivo > 16

Valor predeterminado: 240

Hiperparámetros de capacitación

Nombre del parámetro Descripción
early_stopping

Si se usa una lógica de detención temprana durante la capacitación.

Opcional

Valores válidos: True, False

Valor predeterminado: False

early_stopping_min_epochs

El número mínimo de fechas de inicio que se debe ejecutar.

Opcional

Valores válidos: número entero

Valor predeterminado: 5

early_stopping_patience

El número de fechas de inicio que se ajustan a la tolerancia para un rendimiento más bajo antes de que el algoritmo fuerce una detención temprana.

Opcional

Valores válidos: número entero

Valor predeterminado: 4

early_stopping_tolerance

Si la mejora relativa de la puntuación del trabajo de capacitación, mIOU, es más pequeña que este valor, la detención temprana considera que no se ha mejorado la fecha de inicio. Esta se usa solo cuando early_stopping = True.

Opcional

Valores válidos: 0 ≤ número flotante ≤ 1

Valor predeterminado: 0,0

epochs

El número de fechas de inicio con el que se va a capacitar.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 10

gamma1

El factor de decremento del promedio de movimiento del gradiente cuadrado para rmsprop. Usado solo con rmsprop.

Opcional

Valores válidos: 0 ≤ número flotante ≤ 1

Valor predeterminado: 0,9

gamma2

El factor de impulso para rmsprop.

Opcional

Valores válidos: 0 ≤ número flotante ≤ 1

Valor predeterminado: 0,9

learning_rate

La tasa de aprendizaje inicial.

Opcional

Valores válidos: 0 < número flotante ≤ 1

Valor predeterminado: 0.001

lr_scheduler

La forma de la programación de tasa de aprendizaje que controla su disminución con el tiempo.

Opcional

Valores válidos:

  • step: un decaimiento gradual, en el que la tasa de aprendizaje se reduce (multiplica) por las lr_scheduler_factor fechas de inicio (epochs) posteriores y especificadas por lr_scheduler_step.

  • poly: un decremento suave con una función polinómica.

  • cosine: un decremento suave con una función de coseno.

Valor predeterminado: poly

lr_scheduler_factor

Si lr_scheduler se establece en step, la relación por la que se reduce (multiplica) learning_rate después de cada una de las fechas de inicio (epochs) especificadas por lr_scheduler_step. De lo contrario, se ignora.

Opcional

Valores válidos: 0 ≤ número flotante ≤ 1

Valor predeterminado: 0.1

lr_scheduler_step

Una lista delimitada por comas de las fechas de inicio (epochs) después de las cuales learning_rate se reduce (multiplica) por un lr_scheduler_factor. Por ejemplo, si el valor se establece en "10, 20", la learning-rate se reduce por lr_scheduler_factor después de la décima fecha de inicio y, de nuevo, después de la vigésima fecha de inicio.

Es obligatorio si lr_scheduler está establecido en step. De lo contrario, se ignora.

Valores válidos: cadena

Valor predeterminado: (no hay predeterminado, ya que el valor es obligatorio cuando se usa).

mini_batch_size

El tamaño del lote para la capacitación. El uso de un mini_batch_size grande suele dar lugar a una capacitación más rápida, pero podría hacer que se quedara sin memoria. El uso de memoria se ve afectado por los valores de los parámetros mini_batch_size e image_shape, y la arquitectura de núcleo.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 16

momentum

El impulso para el optimizador sgd. Cuando usa otros optimizadores, el algoritmo de segmentación semántica omite este parámetro.

Opcional

Valores válidos: 0 < flotante ≤ 1

Valor predeterminado: 0,9

optimizer

El tipo de optimizador. Para obtener más información sobre un optimizador, elija el enlace adecuado:

Opcional

Valores válidos: adam, adagrad, nag, rmsprop, sgd

Valor predeterminado: sgd

syncbn

Si se establece en True, la varianza y la media de normalización del lote se calculan en todas las muestras procesadas en las GPU.

Opcional

Valores válidos: True, False

Valor predeterminado: False

validation_mini_batch_size

El tamaño del lote para la validación. Un mini_batch_size grande suele dar lugar a una capacitación más rápida, pero podría hacer que se quedara sin memoria. El uso de memoria se ve afectado por los valores de los parámetros mini_batch_size e image_shape, y la arquitectura de núcleo.

  • Para puntuar la validación de toda la imagen sin cortar las imágenes, establezca este parámetro en 1. Use esta opción si desea medir el rendimiento de toda la imagen en su conjunto.

    nota

    El establecimiento del parámetro validation_mini_batch_size en 1 hace que el algoritmo cree un nuevo modelo de red para todas las imágenes. Esto podría ralentizar la validación y la capacitación.

  • Para cortar imágenes y dejar el tamaño especificado en el parámetro crop_size, incluso durante la evaluación, establezca este parámetro en un valor mayor que 1.

Opcional

Valores válidos: número entero positivo

Valor predeterminado: 16

weight_decay

El coeficiente de degradación de ponderación para el optimizador sgd. Cuando usa otros optimizadores, el algoritmo omite este parámetro.

Opcional

Valores válidos: 0 < flotante < 1

Valor predeterminado: 0.0001