DeepAR 모델 튜닝 - 아마존 SageMaker

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

DeepAR 모델 튜닝

하이퍼파라미터 튜닝이라고도 하는 자동 모델 튜닝은 데이터 세트에 대한 광범위한 하이퍼파라미터를 테스트하는 여러 작업을 실행하여 최적의 모델 버전을 찾습니다. 튜닝 가능한 하이퍼파라미터, 각 하이퍼파라미터에 대한 값 범위 및 목표 지표를 선택합니다. 알고리즘에서 계산하는 지표 중에서 목표 지표를 선택합니다. 자동 모델 튜닝은 선택한 하이퍼파라미터를 검색하여 목표 지표를 최적화하는 모델을 만드는 값 조합을 찾습니다.

모델 튜닝에 대한 자세한 정보는 다음을 사용하여 자동 모델 튜닝을 수행합니다. SageMaker 단원을 참조하십시오.

DeepAR 알고리즘으로 계산되는 지표

DeepAR 알고리즘은 3가지 지표를 보고하며, 이러한 지표는 훈련 중 계산됩니다. 모델을 튜닝할 때 이러한 지표 중 하나를 목표로 선택합니다. 목표 지표에는 제공된 test 채널(권장) 또는 훈련 손실에 대한 예상 정확도를 사용합니다. DeepAR 알고리즘에 대한 훈련/테스트 분할에 대한 권장 사항은 DeepAR 알고리즘 사용의 모범 사례 단원을 참조하십시오.

지표 이름 설명 최적화 방향
test:RMSE

테스트 세트에 대해 계산된 실제 대상 값과 예상 값 사이의 평균 제곱근 오차

최소화

test:mean_wQuantileLoss

테스트 세트에 대해 계산된 평균 분위 손실. 사용되는 분위를 제어하려면 test_quantiles 하이퍼파라미터를 설정합니다.

최소화

train:final_loss

모델에 대한 마지막 훈련 epoch에 대해 평균적으로 산출된 훈련 음수의 로그 가능도(log-likelihood)

최소화

DeepAR 알고리즘에 대한 튜닝 가능한 하이퍼파라미터

다음 하이퍼파라미터를 사용하여 DeepAR 모델을 튜닝합니다. DeepAR 목표 지표에 가장 큰 영향을 미치는 하이퍼파라미터는 epochs, context_length, mini_batch_size, learning_ratenum_cells이며, 가장 큰 영향을 미치는 순서로 나열되어 있습니다.

파라미터 이름 파라미터 유형 권장 범위
epochs

IntegerParameterRanges

MinValue: 1, MaxValue: 1000

context_length

IntegerParameterRanges

MinValue: 1, MaxValue: 200

mini_batch_size

IntegerParameterRanges

MinValue: 32, MaxValue: 1028

learning_rate

ContinuousParameterRange

MinValue: 1e-5, MaxValue: 1e-1

num_cells

IntegerParameterRanges

MinValue: 30, MaxValue: 200

num_layers

IntegerParameterRanges

MinValue: 1, MaxValue: 8

dropout_rate

ContinuousParameterRange

MinValue: 0.00, MaxValue: 0.2

embedding_dimension

IntegerParameterRanges

MinValue: 1, MaxValue: 50