Amazon Elastic Compute Cloud
Linux 인스턴스용 사용 설명서

Amazon Elastic Inference

Amazon Elastic Inference(EI)는 딥러닝(DL) 추론 워크로드를 가속화하기 위해 Amazon EC2 인스턴스에 연결할 수 있는 리소스입니다. Amazon EI 액셀러레이터는 여러 크기로 제공되며 Amazon EC2 인스턴스에서 실행 중인 애플리케이션에 지능형 기능을 구축할 수 있는 비용 효율적인 방법입니다.

Amazon EI는 낮은 비용의 DL 추론 액셀러레이터와 인스턴스의 CPU 간에 TensorFlow, Apache MXNet 및 Open Neural Network Exchange(ONNX) 형식으로 정의된 모델 작업을 MXNet를 통해 배포합니다.

Amazon Elastic Inference에 대한 자세한 내용은 Amazon EI 개발자 안내서를 참조하십시오.