기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
튜닝 BlazingText 모델
하이퍼파라미터 튜닝이라고도 하는 자동 모델 튜닝은 데이터 세트에 대한 광범위한 하이퍼파라미터를 테스트하는 여러 작업을 실행하여 최적의 모델 버전을 찾습니다. 튜닝 가능한 하이퍼파라미터, 각 하이퍼파라미터에 대한 값 범위 및 목표 지표를 선택합니다. 알고리즘에서 계산하는 지표 중에서 목표 지표를 선택합니다. 자동 모델 튜닝은 선택한 하이퍼파라미터를 검색하여 목표 지표를 최적화하는 모델을 만드는 값 조합을 찾습니다.
모델 튜닝에 대한 자세한 정보는 를 사용하여 자동 모델 튜닝 수행하기 SageMaker 단원을 참조하십시오.
에서 계산한 지표 BlazingText알고리즘
이 BlazingText 워드투벡 알고리즘 ()skipgram
,cbow
, 및batch_skipgram
mode) 는 훈련 중 단일 지표에 대한 보고서: train:mean_rho
. 이 지표는 다음 기준으로 계산됩니다.WS-353 단어 유사성 데이터 세트
이 BlazingText 텍스트 분류 알고리즘 (supervised
모드), 훈련 중 단일 메트릭에 대한 보고도 함:validation:accuracy
. 텍스트 분류 알고리즘에 대한 하이퍼파라미터 값을 튜닝할 때 이러한 지표를 목표값으로 사용합니다.
지표 이름 | 설명 | 최적화 방향 |
---|---|---|
train:mean_rho |
WS-353 단어 유사성 데이터 세트 |
최대화 |
validation:accuracy |
사용자 지정 검증 데이터 세트에 대한 분류 정확성 |
최대화 |
조정 가능 BlazingText하이퍼파라미터
Word2Vec 알고리즘의 튜닝 가능한 하이퍼파라미터
Amazon 튜닝 SageMaker BlazingText 다음 하이퍼파라미터를 사용하는 Word2Vec 모델. Word2Vec 목표 지표에 가장 큰 영향을 미치는 하이퍼파라미터는 mode
, learning_rate
, window_size
, vector_dim
및 negative_samples
입니다.
파라미터 이름 | 파라미터 유형 | 권장 범위 또는 값 |
---|---|---|
batch_size |
|
[8-32] |
epochs |
|
[5-15] |
learning_rate |
|
MinValue: 0.005, MaxValue: 0.01 |
min_count |
|
[0-100] |
mode |
|
[ |
negative_samples |
|
[5-25] |
sampling_threshold |
|
MinValue: 0.0001, MaxValue: 0.001 |
vector_dim |
|
[32-300] |
window_size |
|
[1-10] |
텍스트 분류 알고리즘의 튜닝 가능한 하이퍼파라미터
Amazon 튜닝 SageMaker BlazingText 다음 하이퍼매개변수가 있는 텍스트 분류 모델.
파라미터 이름 | 파라미터 유형 | 권장 범위 또는 값 |
---|---|---|
buckets |
|
[1000000-10000000] |
epochs |
|
[5-15] |
learning_rate |
|
MinValue: 0.005, MaxValue: 0.01 |
min_count |
|
[0-100] |
vector_dim |
|
[32-300] |
word_ngrams |
|
[1-3] |