Demande d'inférences à partir d'un service déployé (AWS CLI) - Amazon SageMaker

Demande d'inférences à partir d'un service déployé (AWS CLI)

Les demandes d'inférence peuvent être faites avec sagemaker-runtime invoke-endpoint lorsque vous disposez d'un point de terminaison Amazon SageMaker InService. Vous pouvez faire des demandes d'inférence avec laAWS Command Line Interface (AWS CLI). L'exemple de code suivant montre comment envoyer une image pour inférence :

aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://image.jpg --content-type=application/x-image output_file.txt

Un output_file.txt contenant des informations sur vos demandes d'inférence est créé si l'inférence a réussi.

Pour TensorFlow, envoyez une entrée avec application/json comme type de contenu.

aws sagemaker-runtime invoke-endpoint --endpoint-name 'insert name of your endpoint here' --body fileb://input.json --content-type=application/json output_file.txt