권장 Inferentia 인스턴스 - 딥 러닝 AMI

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

권장 Inferentia 인스턴스

AWS Inferentia 인스턴스는 딥 러닝 모델 추론 워크로드에 고성능 및 비용 효율성을 제공하도록 설계되었습니다. 특히 Inf2 인스턴스 유형은 AWS Inferentia 칩과 AWS Neuron SDK를 사용합니다. 이 SDK는 및 와 같은 인기 있는 기계 학습 프레임워크와 통합됩니다. TensorFlow PyTorch

고객은 Inf2 인스턴스를 사용하여 검색, 추천 엔진, 컴퓨터 비전, 음성 인식, 자연어 처리, 개인화, 사기 탐지와 같은 대규모 기계 학습 추론 애플리케이션을 클라우드에서 최저 비용으로 실행할 수 있습니다.

참고

모델의 크기는 인스턴스를 선택하는 요소로 사용됩니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.

인퍼런시아 DLAMI를 시작하는 AWS 방법에 대한 자세한 내용은 을 참조하십시오. AWS DLAMI를 사용한 인페렌시아 칩

다음

권장 Trainium 인스턴스