쿠키 기본 설정 선택

당사는 사이트와 서비스를 제공하는 데 필요한 필수 쿠키 및 유사한 도구를 사용합니다. 고객이 사이트를 어떻게 사용하는지 파악하고 개선할 수 있도록 성능 쿠키를 사용해 익명의 통계를 수집합니다. 필수 쿠키는 비활성화할 수 없지만 '사용자 지정' 또는 ‘거부’를 클릭하여 성능 쿠키를 거부할 수 있습니다.

사용자가 동의하는 경우 AWS와 승인된 제3자도 쿠키를 사용하여 유용한 사이트 기능을 제공하고, 사용자의 기본 설정을 기억하고, 관련 광고를 비롯한 관련 콘텐츠를 표시합니다. 필수가 아닌 모든 쿠키를 수락하거나 거부하려면 ‘수락’ 또는 ‘거부’를 클릭하세요. 더 자세한 내용을 선택하려면 ‘사용자 정의’를 클릭하세요.

추론 모델 배포

포커스 모드

이 페이지에서

추론 모델 배포 - Amazon SageMaker AI

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon SageMaker AI를 사용하면 훈련된 기계 학습 모델에서 예측 또는 추론을 받을 수 있습니다. SageMaker AI는 모든 ML 추론 요구 사항을 충족하는 데 도움이 되는 다양한 ML 인프라 및 모델 배포 옵션을 제공합니다. SageMaker AI 추론을 사용하면 모델 배포를 확장하고, 프로덕션 환경에서 모델을 더 효과적으로 관리하고, 운영 부담을 줄일 수 있습니다. SageMaker AI는 지연 시간이 짧은 추론을 위한 실시간 엔드포인트, 완전 관리형 인프라 및 자동 확장을 위한 서버리스 엔드포인트, 요청 배치를 위한 비동기 엔드포인트와 같은 다양한 추론 옵션을 제공합니다. 사용 사례에 적합한 추론 옵션을 활용하면 효율적인 모델 배포 및 추론을 보장할 수 있습니다.

기능 선택

SageMaker AI를 사용하여 ML 모델을 배포하는 몇 가지 사용 사례가 있습니다. 이 섹션에서는 이러한 사용 사례와 각 사용 사례에 권장되는 SageMaker AI 기능에 대해 설명합니다.

사용 사례

다음은 SageMaker AI를 사용하여 ML 모델을 배포하기 위한 주요 사용 사례입니다.

  • 사용 사례 1: 기계 학습 모델을 로우 코드 또는 노 코드 환경에 배포합니다. 초보자 또는 SageMaker AI를 처음 사용하는 사용자의 경우 복잡한 구성 없이 Amazon SageMaker Studio 인터페이스를 SageMaker JumpStart 통해 Amazon을 사용하여 사전 훈련된 모델을 배포할 수 있습니다.

  • 사용 사례 2: 코드를 사용하여 유연성과 제어력이 뛰어난 기계 학습 모델을 배포합니다. 숙련된 ML 실무자는 SageMaker AI Python의 ModelBuilder 클래스를 사용하여 애플리케이션 요구 사항에 맞게 사용자 지정된 설정으로 자체 모델을 배포할 수 SDK있습니다.이 에서는 인스턴스 유형, 네트워크 격리 및 리소스 할당과 같은 다양한 설정을 세밀하게 제어할 수 있습니다.

  • 사용 사례 3: 기계 학습 모델을 대규모로 배포합니다. 프로덕션 환경에서 대규모로 모델을 관리하려는 고급 사용자 및 조직의 경우 AWS SDK for Python (Boto3) 원하는 IaC(Infrastructure as Code) 및 CI/CD 도구와 AWS CloudFormation 함께 및를 사용하여 리소스를 프로비저닝하고 리소스 관리를 자동화합니다.

다음 표에서는 각 사용 사례에 해당하는 SageMaker AI 기능의 주요 고려 사항과 장단점을 설명합니다.

사용 사례 1 사용 사례 2 사용 사례 3
SageMaker AI 기능 JumpStart Studio에서를 사용하여 기본 모델 배포를 가속화합니다. ModelBuilder SageMaker Python에서를 사용하여 모델을 배포합니다SDK. 를 사용하여 대규모로 모델을 배포하고 관리합니다 AWS CloudFormation.
설명 Studio UI를 사용하여 카탈로그에서 사전 훈련된 모델을 사전 구성된 추론 엔드포인트에 배포합니다. 이 옵션은 시민 데이터 과학자 또는 복잡한 설정을 구성하지 않고 모델을 배포하려는 모든 사용자에게 적합합니다. Amazon SageMaker AI Python의 ModelBuilder 클래스SDK를 사용하여 자체 모델을 배포하고 배포 설정을 구성합니다. 이 옵션은 숙련된 데이터 사이언티스트 또는 배포하기 위한 자체 모델이 있고 세분화된 제어가 필요한 모든 사용자에게 적합합니다. AWS CloudFormation 및 코드형 인프라(IaC)를 사용하여 SageMaker AI 모델 배포 및 관리를 위한 프로그래밍 방식 제어 및 자동화를 수행합니다. 이 옵션은 일관되고 반복 가능한 배포가 필요한 고급 사용자에게 적합합니다.
최적화 대상 널리 사용되는 오픈 소스 모델의 빠르고 간소화된 배포 자체 모델 배포 프로덕션에서 모델의 지속적인 관리
고려 사항 컨테이너 설정 및 특정 애플리케이션 요구 사항에 대한 사용자 지정 부족 UI가 없으므로 Python 코드를 쉽게 개발하고 유지 관리할 수 있어야 합니다. 인프라 관리 및 조직 리소스가 필요하며 AWS SDK for Python (Boto3) 또는 AWS CloudFormation 템플릿에 대한 지식도 필요합니다.
권장 환경 SageMaker AI 도메인 자격 AWS 증명 및 SDK 설치된 Python으로 구성된 SageMaker Python 개발 환경 또는와 IDE 같은 SageMaker AI SageMaker JupyterLab AWS CLI로컬 개발 환경, IaC(Infrastructure as Code) 및 CI/CD 도구

추가 옵션

SageMaker AI는 추론 사용 사례에 대해 다양한 옵션을 제공하므로 배포의 기술적 범위와 깊이를 선택할 수 있습니다.

  • 엔드포인트에 모델 배포. 모델을 배포할 때는 다음 옵션을 고려하세요.

    • 실시간 추론. 실시간 추론은 대화형, 짧은 지연 시간이 요구되는 추론 워크로드에 적합합니다.

    • Amazon SageMaker Serverless Inference를 사용하여 모델 배포. 서버리스 추론을 사용하여 기본 인프라를 구성하거나 관리하지 않고 모델을 배포합니다. 이 옵션은 트래픽 폭주 사이에 유휴 기간이 있고 콜드 스타트를 허용할 수 있는 워크로드에 적합합니다.

    • 비동기 추론. 수신 요청을 대기열에 저장하고 비동기적으로 처리합니다. 이 옵션은 페이로드 크기가 크고(최대 1GB), 처리 시간이 길며( toAsynchronous 추론 1시간 초과), 거의 실시간에 가까운 지연 시간이 필요한 요청에 적합합니다.

  • 비용 최적화. 추론 비용을 최적화하려면 다음 옵션을 고려하세요.

    • SageMaker Neo를 사용한 모델 성능 최적화. SageMaker Neo를 사용하면 더 나은 성능과 효율성으로 기계 학습 모델을 최적화하고 실행할 수 있으므로 AWS Inferentia 칩과 같은 환경에서 실행하도록 모델을 자동으로 최적화하여 컴퓨팅 비용을 최소화할 수 있습니다.

    • Amazon SageMaker AI 모델의 자동 조정. Autoscaling을 사용하면 들어오는 트래픽 패턴을 기반으로 엔드포인트의 컴퓨팅 리소스를 동적으로 조정할 수 있으므로 지정된 시간에 사용 중인 리소스에 대해서만 비용을 지불하여 비용을 최적화할 수 있습니다.

프라이버시사이트 이용 약관쿠키 기본 설정
© 2025, Amazon Web Services, Inc. 또는 계열사. All rights reserved.