セマンティックセグメンテーションハイパーパラメータ - アマゾン SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

セマンティックセグメンテーションハイパーパラメータ

次の表は、Amazonがサポートするハイパーパラメータの一覧です。 SageMaker ネットワークアーキテクチャ、データ入力、トレーニングのためのセマンティックセグメンテーションアルゴリズム。CreateTrainingJob リクエストの AlgorithmName でトレーニング用のセマンティックセグメンテーションを指定します。

ネットワークアーキテクチャーハイパーパラメータ

Parameter Name 説明
backbone

アルゴリズムのエンコーダーコンポーネントに使用するバックボーン。

オプション

有効な値: resnet-50resnet-101

デフォルト値: resnet-50

use_pretrained_model

バックボーンに事前トレーニング済みモデルを使用するかどうか。

オプション

有効な値: TrueFalse

デフォルト値: True

algorithm

セマンティックセグメンテーションに使用するアルゴリズム。

オプション

有効な値:

デフォルト値: fcn

データハイパーパラメータ

Parameter Name 説明
num_classes

セグメント化するクラスの数。

[Required] (必須)

有効な値: 2 ≤ 正の整数 ≤ 254

num_training_samples

トレーニングデータのサンプル数。アルゴリズムはこの値を使用して、学習レートスケジューラを設定します。

[Required] (必須)

有効な値: 正の整数

base_size

トリミング前にイメージを拡大縮小し直す方法を定義します。イメージは拡大縮小し直され、ロングサイズの長さが 0.5 ~ 2.0 の乱数で乗算された base_size に設定されて、ショートサイズがアスペクト比を維持して計算されます。

オプション

有効な値: 正の整数 > 16

デフォルト値: 520

crop_size

トレーニング中の入力イメージのサイズ。入力イメージを、base_size に基づいてランダムに拡大縮小し直し、辺の長さが crop_size に等しいランダム正方形トリミングを行います。crop_size は、自動的に 8 の倍数に切り上げられます。

オプション

有効な値: 正の整数 > 16

デフォルト値: 240

トレーニングハイパーパラメータ

Parameter Name 説明
early_stopping

トレーニング中に早期停止ロジックを使用するかどうか。

オプション

有効な値: TrueFalse

デフォルト値: False

early_stopping_min_epochs

実行する必要のあるエポックの最小数。

オプション

有効な値: 整数

デフォルト値: 5

early_stopping_patience

アルゴリズムが早期停止を強制する前に低パフォーマンスの許容範囲を満たすエポックの数。

オプション

有効な値: 整数

デフォルト値: 4

early_stopping_tolerance

mIOU の相対的な改善がこの値より小さい場合、早期停止はエポックの改善がないと見なします。これは early_stopping = True の場合にのみ使用されます。

オプション

有効な値: 0 ≤ 浮動小数点数 ≤ 1

デフォルト値: 0.0

epochs

トレーニングするエポック数。

オプション

有効な値: 正の整数

デフォルト値: 10

gamma1

rmsprop の 2 乗勾配の移動平均に使用される減衰係数。rmsprop にのみ使用されます。

オプション

有効な値: 0 ≤ 浮動小数点数 ≤ 1

デフォルト値: 0.9

gamma2

rmsprop のモーメンタム係数。

オプション

有効な値: 0 ≤ 浮動小数点数 ≤ 1

デフォルト値: 0.9

learning_rate

最初の学習レート。

オプション

有効な値: 0 < 浮動小数点数 ≤ 1

デフォルト値: 0.001

lr_scheduler

経時減少を制御する学習レートスケジュールの形状。

オプション

有効な値:

  • step: 段階的な減衰。学習レートは lr_scheduler_step で指定されたエポック後に lr_scheduler_factor ずつ減算 (乗算) されます。

  • poly: 多項式関数を使用した滑らかな減衰。

  • cosine: 余弦関数を使用した滑らかな減衰。

デフォルト値: poly

lr_scheduler_factor

lr_schedulerstep に設定される場合、lr_scheduler_step で指定された各エポック後に learning_rate ずつ減算 (乗算) する比率。それ以外の場合は無視されます。

オプション

有効な値: 0 ≤ 浮動小数点数 ≤ 1

デフォルト値: 0.1

lr_scheduler_step

エポックのカンマ区切りのエポックのリスト。このエポックの後、learning_ratelr_scheduler_factor だけ減算 (乗算) されます。例えば、値が "10, 20" に設定されている場合、learning-rate は 10 番目のエポックの後に lr_scheduler_factor だけ減算され、20 番目のエポックの後に再びこの係数だけ減算されます。

lr_schedulerstep に設定されると、条件付きで必須です。それ以外の場合は無視されます。

有効な値: 文字列

デフォルト値: (使用時に値が必須であるため、デフォルトはありません)

mini_batch_size

トレーニングのバッチサイズ。大きな mini_batch_size を使用すると通常、トレーニングは加速しますが、メモリ不足が起きる可能性があります。メモリ使用量は、mini_batch_size パラメータと image_shape パラメータの値、およびバックボーンアーキテクチャーの影響を受けます。

オプション

有効な値: 正の整数

デフォルト値: 16

momentum

オプティマイザのsgdモーメンタム。他のオプティマイザを使用すると、セマンティックセグメンテーションアルゴリズムはこのパラメータを無視します。

オプション

有効な値: 0 < 浮動小数点数 ≤ 1

デフォルト値: 0.9

optimizer

オプティマイザのタイプ。オプティマイザの詳細については、該当するリンクを選択してください。

オプション

有効な値:adamadagradnagrmspropsgd

デフォルト値: sgd

syncbn

True に設定されている場合、バッチの正規化平均と分散は、GPU 全体で処理されたすべてのサンプルに対して計算されます。

オプション

有効な値: TrueFalse

デフォルト値: False

validation_mini_batch_size

検証用のバッチサイズ。mini_batch_size が大きいと通常、トレーニングは加速しますが、メモリ不足が起きる可能性があります。メモリ使用量は、mini_batch_size パラメータと image_shape パラメータの値、およびバックボーンアーキテクチャーの影響を受けます。

  • イメージをトリミングせずにイメージ全体の検証をスコアリングするには、このパラメータを 1 に設定します。イメージ全体のパフォーマンスを全体として測定する場合は、このオプションを使用します。

    注記

    validation_mini_batch_size パラメータを 1 に設定すると、アルゴリズムはすべてのイメージに対して新しいネットワークモデルを作成します。これにより、検証とトレーニングが低速化する可能性があります。

  • 評価中であっても、crop_size パラメータで指定されたサイズになるようにイメージをトリミングするには、このパラメータを 1 より大きい値に設定します。

オプション

有効な値: 正の整数

デフォルト値: 16

weight_decay

sgd オプティマイザの重み減衰係数。他のオプティマイザを使用すると、アルゴリズムはこのパラメータを無視します。

オプション

有効な値: 0 < 浮動小数点数 < 1

デフォルト値: 0.0001