다음을 사용하여 자동 모델 튜닝을 수행합니다. SageMaker - 아마존 SageMaker

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

다음을 사용하여 자동 모델 튜닝을 수행합니다. SageMaker

하이퍼파라미터 튜닝이라고도 하는 Amazon AMT ( SageMaker 자동 모델 튜닝) 는 데이터세트에서 많은 학습 작업을 실행하여 모델의 최적 버전을 찾습니다. 이를 위해 AMT는 지정한 하이퍼파라미터의 알고리즘과 범위를 사용합니다. 그 다음에 선택한 지표로 측정된 값에 따라 최적의 성능을 보여준 모델을 생성하는 하이퍼파라미터 값을 선택합니다.

예를 들어 마케팅 데이터 세트에 대한 이진 분류 문제를 해결하고자 한다고 가정해 보겠습니다. 목표는 XGBoost 알고리즘 모델을 훈련시켜 알고리즘의 곡선 아래 면적(AUC) 지표를 최대화하는 것입니다. 최고의 모델을 훈련시킬 수 있는 eta, alpha, min_child_weight, max_depth 하이퍼파라미터 값을 찾아야 합니다. 이러한 하이퍼파라미터의 값의 범위를 지정합니다. 그런 다음 SageMaker 하이퍼파라미터 튜닝은 이 범위 내에서 검색하여 가장 높은 AUC를 포함하는 모델을 생성하는 교육 작업을 생성하는 값의 조합을 찾습니다. 리소스를 절약하거나 특정 모델 품질 기대치를 충족하기 위해 완료 기준을 설정하여 기준을 충족한 후 튜닝을 중단할 수도 있습니다.

SageMaker AMT는 내장 알고리즘, 사용자 지정 알고리즘 또는 기계 학습 프레임워크용으로 SageMaker 사전 구축된 컨테이너와 함께 사용할 수 있습니다.

SageMaker AMT는 Amazon EC2 스팟 인스턴스를 사용하여 교육 작업을 실행할 때 비용을 최적화할 수 있습니다. 자세한 설명은 Amazon에서 관리형 스팟 교육 사용하기 SageMaker 섹션을 참조하세요.

하이퍼파라미터 튜닝을 사용하기 전에 다음을 포함한 기계 학습 문제를 잘 파악해야 합니다.

  • 데이터 세트

  • 훈련에 필요한 알고리즘 유형에 대한 이해

  • 성공 측정 방법에 대한 명확한 파악

데이터세트와 알고리즘이 제대로 작동하고 적어도 한 번은 교육 작업을 성공적으로 실행할 수 있도록 준비하세요. SageMaker 훈련 작업을 설정 및 실행하는 자세한 내용은 시작 단원을 참조하십시오.