Iperparametri di segmentazione semantica - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Iperparametri di segmentazione semantica

Le tabelle seguenti elencano gli iperparametri supportati dall'algoritmo di segmentazione SageMaker semantica di Amazon per l'architettura di rete, gli input di dati e l'addestramento. Puoi specificare la segmentazione semantica per il training in AlgorithmName della richiesta CreateTrainingJob.

Iperparametri dell'architettura di rete

Nome parametro Descrizione
backbone

Il backbone da utilizzare per il componente codificatore dell'algoritmo.

Opzionale

Valori validi: resnet-50, resnet-101

Valore predefinito: resnet-50

use_pretrained_model

Indica se un modello già sottoposto al training deve essere utilizzato per il backbone.

Opzionale

Valori validi: True, False

Valore predefinito: True

algorithm

L'algoritmo da utilizzare per la segmentazione semantica.

Opzionale

Valori validi:

Valore predefinito: fcn

Iperparametri dei dati

Nome parametro Descrizione
num_classes

Il numero di classi da segmentare.

Campo obbligatorio

Valori validi: 2 ≤ numero intero positivo ≤ 254

num_training_samples

Il numero di esempi nei dati di training. L'algoritmo utilizza questo valore per impostare il pianificatore della velocità di apprendimento.

Campo obbligatorio

Valori validi: numeri interi positivi

base_size

Definisce il modo in cui le immagini vengono ridimensionate prima del ritaglio. Le immagini vengono ridimensionate in modo tale che la lunghezza delle dimensioni lunghe sia impostata su base_size moltiplicata per un numero casuale compreso tra 0,5 e 2.0 e la dimensione corta viene calcolata per mantenere le proporzioni.

Opzionale

Valori validi: numeri interi positivi > 16

Valore predefinito: 520

crop_size

La dimensione dell'immagine per l'input durante il training. Riscaliamo casualmente l'immagine di input in base a base_size, quindi prendiamo un ritaglio quadrato casuale con lunghezza laterale uguale a crop_size. L'input crop_size verrà arrotondato automaticamente a multipli di 8.

Opzionale

Valori validi: numeri interi positivi > 16

Valore predefinito: 240

Iperparametri di training

Nome parametro Descrizione
early_stopping

Indica se utilizzare la logica di arresto precoce durante il training.

Opzionale

Valori validi: True, False

Valore predefinito: False

early_stopping_min_epochs

Il numero minimo di epoche (Unix epochs) che devono essere eseguite.

Opzionale

Valori validi: numero intero

Valore predefinito: 5

early_stopping_patience

Il numero di epoche (Unix epochs) che soddisfano la tolleranza per prestazioni inferiori prima che l'algoritmo applichi un arresto precoce.

Opzionale

Valori validi: numero intero

Valore predefinito: 4

early_stopping_tolerance

Se il miglioramento relativo di mIOU è inferiore a questo valore, l'arresto precoce considera l'epoca (Unix epoch) come non migliorata. Viene usato solo quando early_stopping = True.

Opzionale

Valori validi: 0 ≤ float ≤ 1

Valore predefinito: 0.0

epochs

Il numero di epoche (Unix epochs) da usare per il training.

Opzionale

Valori validi: numeri interi positivi

Valore predefinito: 10

gamma1

Il fattore di decadimento per la media mobile del gradiente squadrato per rmsprop. Usato solo per rmsprop.

Opzionale

Valori validi: 0 ≤ float ≤ 1

Valore predefinito: 0,9

gamma2

Il fattore di momento per rmsprop.

Opzionale

Valori validi: 0 ≤ float ≤ 1

Valore predefinito: 0,9

learning_rate

La velocità di apprendimento iniziale.

Opzionale

Valori validi: 0 < float ≤ 1

Valore predefinito: 0,001

lr_scheduler

La forma del pianificatore della velocità di apprendimento che ne controlla la diminuzione nel tempo.

Opzionale

Valori validi:

  • step: un decadimento graduale, in cui il tasso di apprendimento viene ridotto (moltiplicato) per lr_scheduler_factor dopo epoche successive specificate da lr_scheduler_step.

  • poly: un decadimento lineare utilizzando una funzione polinomiale.

  • cosine: un decadimento lineare utilizzando una funzione cosinusoide.

Valore predefinito: poly

lr_scheduler_factor

Se lr_scheduler è impostato su step, il rapporto con cui ridurre (moltiplicare) learning_rate dopo ciascuna epoca specificata da lr_scheduler_step. In caso contrario, viene ignorato.

Opzionale

Valori validi: 0 ≤ float ≤ 1

Valore predefinito: 0,1

lr_scheduler_step

Un elenco delimitato da virgole delle epoche dopo le quali learning_rate viene ridotto (moltiplicato) di un lr_scheduler_factor. Ad esempio, se il valore è impostato su "10, 20", il learning-rate viene ridotto di lr_scheduler_factor dopo la decima epoca e nuovamente di tale fattore dopo la ventesima epoca.

Condizionalmente obbligatorio se lr_scheduler è impostato su step. In caso contrario, viene ignorato.

Valori validi: stringa

Valore predefinito: (nessun valore predefinito, poiché il valore è obbligatorio quando viene utilizzato).

mini_batch_size

Le dimensioni del batch per il training. L'utilizzo di un valore elevato per mini_batch_size di solito si traduce in un training più veloce, ma potrebbe causare l'esaurimento della memoria. L'utilizzo della memoria è influenzato dai valori dei parametri mini_batch_size e image_shape e dall'architettura backbone.

Opzionale

Valori validi: numeri interi positivi

Valore predefinito: 16

momentum

Il momento per l'ottimizzatore sgd. Quando usi altri ottimizzatori, l'algoritmo di segmentazione semantica ignora questo parametro.

Opzionale

Valori validi: 0 < float ≤ 1

Valore predefinito: 0,9

optimizer

Il tipo di ottimizzatore. Per ulteriori informazioni su un ottimizzatore, scegli il collegamento appropriato:

Opzionale

Valori validi: adam, adagrad, nag, rmsprop, sgd

Valore predefinito: sgd

syncbn

Se il valore è impostato su True, la media e la varianza di normalizzazione batch vengono calcolate su tutti i campioni elaborati attraverso le GPU.

Opzionale

Valori validi: True, False

Valore predefinito: False

validation_mini_batch_size

Le dimensioni del batch per la convalida. Un valore elevato per mini_batch_size di solito si traduce in un training più veloce, ma potrebbe causare l'esaurimento della memoria. L'utilizzo della memoria è influenzato dai valori dei parametri mini_batch_size e image_shape e dall'architettura backbone.

  • Per assegnare un punteggio alla convalida sull'intera immagine senza ritagliare immagini, imposta questo parametro su 1. Utilizza questa opzione se vuoi misurare le prestazioni dell'intera immagine nel complesso.

    Nota

    Impostando il parametro validation_mini_batch_size su 1, l'algoritmo crea un nuovo modello di rete per ogni immagine. Questo potrebbe rallentare la convalida e il training.

  • Per ritagliare le immagini alla dimensione specificata nel parametro crop_size, anche durante la valutazione, imposta il parametro su un valore maggiore di 1.

Opzionale

Valori validi: numeri interi positivi

Valore predefinito: 16

weight_decay

Il coefficiente di decadimento del peso per l'ottimizzatore sgd. Quando usi altri ottimizzatori, l'algoritmo ignora questo parametro.

Opzionale

Valori validi: 0 < float < 1

Valore predefinito: 0.0001