Hyperparamètres de la segmentation sémantique - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Hyperparamètres de la segmentation sémantique

Les tableaux suivants répertorient les hyperparamètres pris en charge par l'algorithme de segmentation sémantique Amazon SageMaker pour une architecture réseau, les entrées de données et l'entraînement. Vous spécifiez la segmentation sémantique pour la formation dans l'AlgorithmName de la demande CreateTrainingJob.

Hyperparamètres de l'architecture réseau

Nom du paramètre Description
backbone

Backbone à utiliser pour l'encodeur de l'algorithme.

Facultatif

Valeurs valides : resnet-50, resnet-101

Valeur par défaut : resnet-50

use_pretrained_model

Indique si un modèle préentraîné est à utiliser pour le backbone.

Facultatif

Valeurs valides : True, False

Valeur par défaut : True

algorithm

Algorithme à utiliser pour la segmentation sémantique.

Facultatif

Valeurs valides :

Valeur par défaut : fcn

Hyperparamètres de données

Nom du paramètre Description
num_classes

Nombre de classes à segmenter.

Obligatoire

Valeurs valides : 2 ≤ entier positif ≤ 254

num_training_samples

Nombre d'échantillons dans les données d'entraînement. L'algorithme utilise cette valeur pour configurer le planificateur du taux d'apprentissage.

Obligatoire

Valeurs valides : nombre entier positif

base_size

Définit la manière dont les images sont redimensionnées avant le rognage. Les images sont redimensionnées de manière à ce que la longueur soit base_size multiplié par un nombre aléatoire compris entre 0,5 et 2,0, et la largeur calculée pour préserver le rapport de l'image.

Facultatif

Valeurs valides : entier positif > 16

Valeur par défaut : 520

crop_size

Taille de l'image pour l'entrée pendant l'entraînement. Nous redimensionnons aléatoirement l'image d'entrée en fonction de base_size, puis nous effectuons un rognage carré aléatoire avec une longueur latérale égale à crop_size. La valeur crop_size sera automatiquement arrondie à des multiples de 8.

Facultatif

Valeurs valides : entier positif > 16

La valeur par défaut est 240.

Entraînement des hyperparamètres

Nom du paramètre Description
early_stopping

Indique s'il faut utiliser une logique d'arrêt anticipé au cours de l'entraînement.

Facultatif

Valeurs valides : True, False

Valeur par défaut : False

early_stopping_min_epochs

Nombre minimal des périodes (epochs) qui doivent être exécutées.

Facultatif

Valeurs valides : nombre entier

Valeur par défaut : 5

early_stopping_patience

Nombre de périodes (epochs) qui répondent à la tolérance pour les performances les plus basses avant que l'algorithme n'applique un arrêt anticipé.

Facultatif

Valeurs valides : nombre entier

Valeur par défaut : 4

early_stopping_tolerance

Si l'amélioration relative de mIOU est inférieure à cette valeur, l'arrêt anticipé considère la période (epoch) comme non améliorée. Ce paramètre est utilisé uniquement si early_stopping = True.

Facultatif

Valeurs valides : 0 ≤ valeur flottante ≤ 1

Valeur par défaut : 0.0

epochs

Nombre de périodes (epochs) avec lesquelles entraîner.

Facultatif

Valeurs valides : nombre entier positif

Valeur par défaut : 10

gamma1

Facteur de dégradation pour la moyenne mobile du gradient carré pour rmsprop. Utilisé uniquement pour rmsprop.

Facultatif

Valeurs valides : 0 ≤ valeur flottante ≤ 1

Valeur par défaut : 0.9

gamma2

Facteur de vitesse (momentum) pour rmsprop.

Facultatif

Valeurs valides : 0 ≤ valeur flottante ≤ 1

Valeur par défaut : 0.9

learning_rate

Le taux d'apprentissage initial.

Facultatif

Valeurs valides : 0 < valeur flottante ≤ 1

Valeur par défaut : 0.001

lr_scheduler

La forme du calendrier du taux d'apprentissage qui contrôle sa diminution au fil du temps.

Facultatif

Valeurs valides :

  • step : dégradation progressive, où le taux d'apprentissage est réduit (multiplié) par le facteur lr_scheduler_factor après les époques spécifiées par lr_scheduler_step.

  • poly : dégradation lisse à l'aide d'une fonction polynomiale.

  • cosine : dégradation lisse à l'aide d'une fonction cosinus.

Valeur par défaut : poly

lr_scheduler_factor

Si lr_scheduler est défini sur step, le rapport par lequel réduire (multiplier) le facteur learning_rate après chacune des époques spécifiées par lr_scheduler_step. Sinon, il est ignoré.

Facultatif

Valeurs valides : 0 ≤ valeur flottante ≤ 1

Valeur par défaut : 0.1

lr_scheduler_step

Liste délimitée par des virgules des époques après lesquelles le taux learning_rate est réduit (multiplié) par un facteur lr_scheduler_factor. Par exemple, si la valeur est définie sur "10, 20", le taux learning-rate est réduit de lr_scheduler_factor après la 10e époque et à nouveau de ce facteur après la 20e époque.

Requis sous condition si lr_scheduler est défini sur step. Sinon, il est ignoré.

Valeurs valides : chaîne

Valeur par défaut : (Pas de valeur par défaut, car la valeur est requise lorsqu'il est utilisé.)

mini_batch_size

Taille de lot pour l'entraînement. L'utilisation d'une mini_batch_size élevée se traduit généralement par un entraînement plus rapide, mais peut conduire à une mémoire insuffisante. L'utilisation de la mémoire est affectée par les valeurs des paramètres mini_batch_size et image_shape, et par l'architecture du backbone.

Facultatif

Valeurs valides : nombre entier positif

Valeur par défaut : 16

momentum

La vitesse (momentum) de l'optimiseur sgd. Lorsque vous utilisez d'autres optimisateurs, l'algorithme de segmentation sémantique ignore ce paramètre.

Facultatif

Valeurs valides : 0 < valeur flottante ≤ 1

Valeur par défaut : 0.9

optimizer

Le type d'optimiseur. Pour plus d'informations sur l'optimiseur, choisissez le lien approprié :

Facultatif

Valeurs valides: adam, adagrad, nag, rmsprop, sgd

Valeur par défaut : sgd

syncbn

Si elle est définie sur True, la moyenne et les variations de la normalisation des lots sont calculées sur tous les échantillons traités dans les GPU.

Facultatif

Valeurs valides : True, False

Valeur par défaut : False

validation_mini_batch_size

Taille de lot pour la validation. L'utilisation d'une mini_batch_size élevée se traduit généralement par un entraînement plus rapide, mais peut conduire à une mémoire insuffisante. L'utilisation de la mémoire est affectée par les valeurs des paramètres mini_batch_size et image_shape, et par l'architecture du backbone.

  • Pour marquer la validation de l'ensemble de l'image sans rogner les images, définissez ce paramètre sur 1. Utilisez cette option si vous souhaitez mesurer les performances sur l'ensemble de l'image dans son ensemble.

    Note

    Définir le validation_mini_batch_size paramètre sur 1 conduit l'algorithme à créer un nouveau modèle de réseau pour chaque image. Cela peut ralentir la validation et l'entraînement.

  • Pour rogner les images à la taille spécifiée dans le paramètre crop_size, même au cours de l'évaluation, définissez ce paramètre sur une valeur supérieure à 1.

Facultatif

Valeurs valides : nombre entier positif

Valeur par défaut : 16

weight_decay

Coefficient de dégradation de pondération pour l'optimiseur sgd. Lorsque vous utilisez d'autres optimisateurs, l'algorithme ignore ce paramètre.

Facultatif

Valeurs valides : 0 < valeur flottante < 1

Valeur par défaut : 0.0001