Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Instancias en la nube
Amazon SageMaker Neo proporciona soporte de compilación para marcos de aprendizaje automático populares TensorFlow, como PyTorch, MXNet, y más. Puede implementar su modelo compilado en instancias de nube e instancias de AWS Inferentia. Para obtener una lista completa de los marcos y tipos de instancias compatibles, consulte Marcos y tipos de instancias compatibles.
Puede compilar su modelo de tres maneras: mediante la AWS CLI consola de SageMaker IA o el SDK de SageMaker IA para Python. Consulte Uso de Neo para compilar un modelo para obtener más información. Una vez compilados, los artefactos del modelo se almacenan en el URI del bucket de Amazon S3 que haya especificado durante el trabajo de compilación. Puede implementar su modelo compilado en instancias de nube e instancias de AWS Inferentia mediante el SDK de SageMaker IA para Python o la AWS consola. AWS SDK for Python (Boto3) AWS CLI
Si despliega el modelo mediante AWS CLI la consola o Boto3, debe seleccionar un URI de Amazon ECR de imagen de Docker para su contenedor principal. Consulte Neo Inference Container Images para obtener una lista de Amazon URIs ECR.