Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Implementación de un modelo
Para implementar un modelo SageMaker compilado por Amazon NEO en un punto final HTTPS, debe configurar y crear el punto final para el modelo mediante los servicios de alojamiento de Amazon SageMaker AI. Actualmente, los desarrolladores pueden usar Amazon SageMaker APIs para implementar módulos en instancias ml.c5, ml.c4, ml.m5, ml.m4, ml.p3, ml.p2 y ml.inf1.
Para las instancias Inferentia
Cuando se implementa un modelo compilado, es preciso usar la misma instancia para el destino que utilizó para la compilación. Esto crea un punto final de IA que SageMaker puede usar para realizar inferencias. Puede implementar un modelo compilado en NEO mediante cualquiera de las siguientes opciones: Amazon SageMaker AI SDK for Python
nota
Para implementar un modelo mediante AWS CLI la consola o Boto3, consulte Neo Inference Container Images para seleccionar el URI de la imagen de inferencia para su contenedor principal.