Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Déploiement d'un modèle
Pour déployer un modèle SageMaker compilé par Amazon Neo sur un HTTPS point de terminaison, vous devez configurer et créer le point de terminaison pour le modèle à l'aide des services SageMaker d'hébergement Amazon. Actuellement, les développeurs peuvent utiliser Amazon SageMaker APIs pour déployer des modules sur des instances ml.c5, ml.c4, ml.m5, ml.m4, ml.p3, ml.p2 et ml.inf1.
Pour les instances Inferentia
Lorsque vous déployez un modèle compilé, vous devez utiliser la même instance pour la cible que celle utilisée pour la compilation. Cela crée un SageMaker point de terminaison que vous pouvez utiliser pour effectuer des inférences. Vous pouvez déployer un modèle compilé au format NEO en utilisant l'un des outils suivants : Amazon SageMaker SDK pour Python
Note
Pour déployer un modèle à l'aide AWS CLI de la console ou de Boto3, consultez Neo Inference Container Images pour sélectionner l'image d'inférence URI pour votre conteneur principal.