Instances cloud - Amazon SageMaker

Instances cloud

Amazon SageMaker Neo prend en charge la compilation pour les cadres de machine learning les plus courants, tels que TensorFlow, PyTorch, MXNet, etc. Vous pouvez déployer votre modèle compilé sur des instances cloud et des AWS Inferentia. Pour obtenir la liste complète des cadres et types d'instance pris en charge, veuillez consulter Supported Instances Types and Frameworks (Cadres et types d'instances pris en charge).

Vous pouvez compiler votre modèle de l'une des trois façons suivantes : via la AWS CLI, la console SageMaker ou le SDK SageMaker pour Python. Pour de plus amples informations, veuillez consulter Use Neo to Compile a Model (Utiliser Neo pour compiler un modèle). Une fois vos artefacts de modèle compilés, ils sont stockés dans l'URI du compartiment Amazon S3 que vous avez spécifié lors de la tâche de compilation. Vous pouvez déployer votre modèle compilé sur des instances cloud et AWS Inferentia à l'aide du SDK SageMaker pour Python, du AWS SDK for Python (Boto3), de la AWS CLI ou de la console AWS.

Si vous déployez votre modèle à l'aide de la AWS CLI, la console ou Boto3, vous devez sélectionner un URI Amazon ECR d'image Docker pour votre conteneur principal. Veuillez consulter Neo Inference Container Images (Images de conteneur d'inférence Neo) pour obtenir la liste des URI Amazon ECR.