추론 모델 배포 - Amazon SageMaker

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

추론 모델 배포

Amazon 를 사용하면 훈련된 기계 학습 모델에서 예측 또는 추론을 가져올 SageMaker수 있습니다. 는 모든 ML 추론 요구 사항을 충족하는 데 도움이 되는 다양한 ML 인프라 및 모델 배포 옵션을 SageMaker 제공합니다. SageMaker 추론을 사용하면 모델 배포를 확장하고, 프로덕션에서 모델을 더 효과적으로 관리하고, 운영 부담을 줄일 수 있습니다. 는 지연 시간이 짧은 추론을 위한 실시간 엔드포인트, 완전 관리형 인프라 및 자동 확장을 위한 서버리스 엔드포인트, 요청 배치를 위한 비동기 엔드포인트와 같은 다양한 추론 옵션을 SageMaker 제공합니다. 사용 사례에 적합한 추론 옵션을 활용하여 효율적인 모델 배포 및 추론을 보장할 수 있습니다.

기능 선택

를 사용하여 ML 모델을 배포하는 몇 가지 사용 사례가 있습니다 SageMaker. 이 섹션에서는 이러한 사용 사례와 각 사용 사례에 권장되는 SageMaker 기능에 대해 설명합니다.

사용 사례

다음은 를 사용하여 ML 모델을 배포하는 주요 사용 사례입니다 SageMaker.

  • 사용 사례 1: 기계 학습 모델을 로우 코드 또는 노 코드 환경에 배포합니다. 초보자 또는 에 처음 가입한 사용자의 경우 복잡한 구성 없이 Amazon SageMaker Studio 인터페이스를 SageMaker JumpStart 통해 Amazon을 사용하여 사전 훈련된 모델을 배포할 SageMaker수 있습니다.

  • 사용 사례 2: 코드를 사용하여 유연성과 제어력이 뛰어난 기계 학습 모델을 배포합니다. 숙련된 ML 실무자는 Python 의 ModelBuilder SageMaker 클래스를 사용하여 애플리케이션 요구 사항에 맞게 사용자 지정된 설정을 사용하여 자체 모델을 배포할 수 SDK있습니다. 이 는 인스턴스 유형, 네트워크 격리 및 리소스 할당과 같은 다양한 설정을 세밀하게 제어할 수 있습니다.

  • 사용 사례 3: 기계 학습 모델을 대규모로 배포합니다. 프로덕션 환경에서 규모에 맞게 모델을 관리하려는 고급 사용자 및 조직의 경우 AWS SDK for Python (Boto3) 원하는 IaC(Infrastructure as Code) 및 CI/CD 도구와 AWS CloudFormation 함께 및 를 사용하여 리소스를 프로비저닝하고 리소스 관리를 자동화합니다.

다음 표에서는 각 사용 사례에 해당하는 SageMaker 기능에 대한 주요 고려 사항과 단점을 설명합니다.

사용 사례 1 사용 사례 2 사용 사례 3
SageMaker 기능 JumpStart Studio에서 를 사용하여 기본 모델 배포를 가속화합니다. ModelBuilder SageMaker Python 에서 를 SDK사용하여 모델을 배포합니다. 를 사용하여 대규모로 모델을 배포하고 관리합니다 AWS CloudFormation.
설명 Studio UI를 사용하여 카탈로그에서 사전 훈련된 모델을 사전 구성된 추론 엔드포인트에 배포합니다. 이 옵션은 시민 데이터 과학자 또는 복잡한 설정을 구성하지 않고 모델을 배포하려는 모든 사용자에게 적합합니다. Amazon SageMaker Python의 ModelBuilder 클래스SDK를 사용하여 자체 모델을 배포하고 배포 설정을 구성합니다. 이 옵션은 숙련된 데이터 사이언티스트 또는 배포하기 위한 자체 모델이 있고 세분화된 제어가 필요한 모든 사용자에게 적합합니다. 및 AWS CloudFormation 인프라를 코드로 사용(IaC )하여 모델을 배포하고 관리하기 SageMaker 위한 프로그래밍 제어 및 자동화를 수행합니다. 이 옵션은 일관되고 반복 가능한 배포가 필요한 고급 사용자에게 적합합니다.
에 최적화됨 널리 사용되는 오픈 소스 모델의 빠르고 간소화된 배포 자체 모델 배포 프로덕션에서 모델의 지속적인 관리
고려 사항 컨테이너 설정 및 특정 애플리케이션 요구 사항에 대한 사용자 지정 부족 UI가 없으므로 Python 코드를 쉽게 개발하고 유지 관리할 수 있어야 합니다. 인프라 관리 및 조직 리소스가 필요하며 AWS SDK for Python (Boto3) 또는 AWS CloudFormation 템플릿에 대한 친숙도가 필요합니다.
권장 환경 SageMaker 도메인 자격 AWS 증명 및 설치된 Python SDK 또는 SageMaker IDE 와 같은 로 구성된 SageMaker Python 개발 환경 SageMaker JupyterLab AWS CLI, 로컬 개발 환경, IaC(Infrastructure as Code) 및 CI/CD 도구

추가 옵션

SageMaker 는 추론 사용 사례에 대한 다양한 옵션을 제공하므로 배포의 기술적 폭과 깊이를 선택할 수 있습니다.

  • 엔드포인트에 모델 배포. 모델을 배포할 때는 다음 옵션을 고려하세요.

    • 실시간 추론. 실시간 추론은 대화형의 지연 시간이 짧은 요구 사항이 있는 추론 워크로드에 적합합니다.

    • Amazon SageMaker 서버리스 추론을 사용하여 모델 배포하기. 서버리스 추론을 사용하여 기본 인프라를 구성하거나 관리하지 않고 모델을 배포합니다. 이 옵션은 트래픽 스퍼트 간에 유휴 기간이 있고 콜드 스타트를 허용할 수 있는 워크로드에 적합합니다.

    • 비동기 추론. 는 수신 요청을 대기열에 넣고 비동기적으로 처리합니다. 이 옵션은 페이로드 크기가 크고(최대 1GB), 처리 시간이 길고( toAsynchronous 추론 1시간 증가), 거의 실시간에 가까운 지연 시간이 필요한 요청에 적합합니다.

  • 비용 최적화. 추론 비용을 최적화하려면 다음 옵션을 고려하세요.

    • SageMaker Neo를 사용한 모델 성능 최적화. SageMaker Neo를 사용하면 더 나은 성능과 효율성으로 기계 학습 모델을 최적화하고 실행할 수 있으므로 AWS Inferentia 칩과 같은 환경에서 실행하도록 모델을 자동으로 최적화하여 컴퓨팅 비용을 최소화할 수 있습니다.

    • Amazon SageMaker 모델의 자동 조정. Autoscaling을 사용하면 수신 트래픽 패턴을 기반으로 엔드포인트의 컴퓨팅 리소스를 동적으로 조정할 수 있으므로 지정된 시간에 사용 중인 리소스에 대해서만 비용을 지불하여 비용을 최적화할 수 있습니다.