As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Implante modelos do Autopilot para inferência em tempo real
Depois de treinar seus modelos do Amazon SageMaker Autopilot, você pode configurar um endpoint e obter previsões de forma interativa. A seção a seguir descreve as etapas para implantar seu modelo em um endpoint de inferência de SageMaker IA em tempo real para obter previsões do seu modelo.
Inferência em tempo real
A inferência em tempo real é ideal para workloads de inferência em que você tem requisitos em tempo real, interativos e de baixa latência. Esta seção mostra como você pode usar a inferência em tempo real para obter predições do seu modelo de forma interativa.
Você pode usar SageMaker APIs para implantar manualmente o modelo que produziu a melhor métrica de validação em um experimento de piloto automático da seguinte maneira.
Como alternativa, você pode escolher a opção de implantação automática ao criar seu experimento de Autopilot. Para obter informações sobre como configurar a implantação automática de modelos, consulte ModelDeployConfig nos parâmetros de solicitação de CreateAutoMLJobV2. Isso cria um endpoint automaticamente.
nota
Para evitar cobranças desnecessárias, exclua endpoints e recursos desnecessários criados a partir da implantação do modelo. Para obter informações sobre preços de instâncias por região, consulte Amazon SageMaker Pricing
-
Obtenha as definições do contêiner candidato
Obtenha as definições do contêiner candidato em InferenceContainers. Uma definição de contêiner para inferência se refere ao ambiente em contêineres projetado para implantar e executar seu modelo de SageMaker IA treinado para fazer previsões.
O exemplo de AWS CLI comando a seguir usa a API DescribeAutoMLJobV2 para obter definições de candidatos para o melhor candidato a modelo.
aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-namejob-name--regionregion -
Listar candidatos
O exemplo de AWS CLI comando a seguir usa a ListCandidatesForAutoMLJobAPI para listar todos os candidatos ao modelo.
aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name<job-name>--region<region> -
Crie um modelo de SageMaker IA
Use as definições de contêiner das etapas anteriores e um candidato de sua escolha para criar um modelo de SageMaker IA usando a CreateModelAPI. Veja o AWS CLI comando a seguir como exemplo.
aws sagemaker create-model --model-name '<your-candidate-name>' \ --containers ['<container-definition1>,<container-definition2>,<container-definition3>]' \ --execution-role-arn '<execution-role-arn>' --region '<region> -
Criar uma configuração de endpoint
O exemplo de AWS CLI comando a seguir usa a CreateEndpointConfigAPI para criar uma configuração de endpoint.
aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \ --production-variants '<list-of-production-variants>' \ --region '<region>' -
Criar o endpoint
O AWS CLI exemplo a seguir usa a CreateEndpointAPI para criar o endpoint.
aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \ --endpoint-config-name '<endpoint-config-name-you-just-created>' \ --region '<region>'Verifique o progresso da implantação do seu endpoint usando a DescribeEndpointAPI. Veja o AWS CLI comando a seguir como exemplo.
aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region<region>Depois que
EndpointStatusmuda paraInService, o endpoint está pronto para ser usado para inferência em tempo real. -
Invocar o endpoint
A estrutura de comando a seguir invoca o endpoint para inferência em tempo real.
aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ --region '<region>' --body '<your-data>' [--content-type] '<content-type>'<outfile>