기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
권장 Inferentia 인스턴스
AWS Inferentia 인스턴스는 딥 러닝 모델 추론 워크로드에 고성능 및 비용 효율성을 제공하도록 설계되었습니다. 특히 Inf2 인스턴스 유형은 AWS Inferentia 칩과 AWS Neuron SDK를 사용합니다. 이 SDK는
고객은 Inf2 인스턴스를 사용하여 검색, 추천 엔진, 컴퓨터 비전, 음성 인식, 자연어 처리, 개인화, 사기 탐지와 같은 대규모 기계 학습 추론 애플리케이션을 클라우드에서 최저 비용으로 실행할 수 있습니다.
참고
모델의 크기는 인스턴스를 선택하는 요소로 사용됩니다. 모델이 인스턴스의 사용 가능한 RAM을 초과하는 경우 애플리케이션을 위해 충분한 메모리를 가진 다른 인스턴스 유형을 선택합니다.
Amazon EC2 Inf2 인스턴스는
최대 16개의 AWS 인페렌티아 칩과 100Gbps의 네트워킹 처리량을 갖추고 있습니다.
인퍼런시아 DLAMI를 시작하는 AWS 방법에 대한 자세한 내용은 을 참조하십시오. AWS DLAMI를 사용한 인페렌시아 칩