As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Execute trabalhos de inferência em lote
A inferência em lote, também conhecida como inferência offline, gera previsões de modelo em um lote de observações. A inferência em lote é uma boa opção para grandes conjuntos de dados ou se você não precisar de uma resposta imediata a uma solicitação de previsão do modelo. Por outro lado, a inferência on-line (inferência em tempo real) gera previsões em tempo real. Você pode fazer inferências em lote a partir de um modelo do Autopilot usando o SageMaker Python SDK
As guias a seguir mostram três opções para implantar seu modelo: UsandoAPIs, interface de usuário do piloto automático ou usando APIs para implantar a partir de contas diferentes. Estas instruções supõem que você já criou um modelo no Autopilot. Se você não tem um modelo, consulte Crie trabalhos de regressão ou classificação para dados tabulares usando o AutoML API. Para ver exemplos de cada opção, abra cada guia.
A interface do usuário do Autopilot contém menus suspensos úteis, botões de alternância, dicas de ferramentas e muito mais para ajudá-lo(a) a navegar pela implantação do modelo.
As etapas a seguir mostram como implantar um modelo de um experimento do Autopilot para previsões em lote.
-
Faça login em https://console.aws.amazon.com/sagemaker/
e selecione Studio no painel de navegação. -
No painel de navegação à esquerda, escolha Studio.
-
Em Comece a usar, selecione o domínio no qual você deseja iniciar o aplicativo Studio. Se o seu perfil de usuário pertencer apenas a um domínio, você não verá a opção para selecionar um domínio.
-
Selecione o perfil de usuário para o qual você deseja iniciar o aplicativo Studio Classic. Se não houver perfil de usuário no domínio, escolha Criar perfil de usuário. Para obter mais informações, consulte Adicionar perfis de usuário.
-
Escolha Launch Studio (Iniciar Studio). Se o perfil do usuário pertencer a um espaço compartilhado, escolha Espaços abertos.
-
Quando o console do SageMaker Studio Classic abrir, escolha o botão Launch SageMaker Studio.
-
Selecione AutoML no painel de navegação à esquerda.
-
Em Nome, selecione o experimento do Autopilot correspondente ao modelo que você deseja implantar. Isso abre uma nova AUTOPILOTJOBguia.
-
Na seção Model name (Nome do modelo), selecione o modelo que deseja implantar.
-
Escolha Deploy model (Implantar modelo). Isso abre uma nova guia.
-
Escolha Make batch predictions (Fazer previsões em lote) na parte superior da página.
-
Para a configuração do trabalho de transformação de lotes, insira o tipo de instância, Contagem de instâncias e outras informações opcionais.
-
Na seção Configuração de dados de entrada, abra o menu suspenso.
-
Para o tipo de dados S3, escolha ManifestFileou S3Prefix.
-
Para Tipo de divisão, escolha Linha, Recordio TFRecordou Nenhum.
-
Para Compactação, escolha Gzip ou Nenhuma.
-
-
Para a localização do S3, insira o local do bucket do Amazon S3 dos dados de entrada e outras informações opcionais.
-
Em Configuração de dados de saída, insira o bucket do S3 para os dados de saída e escolha como montar a saída do seu trabalho.
-
Para Configuração adicional (opcional), você pode inserir um MIME tipo e uma chave de criptografia S3.
-
-
Para filtragem de entrada/saída e junções de dados (opcional), você insere uma JSONpath expressão para filtrar os dados de entrada, une os dados da fonte de entrada aos dados de saída e insere uma JSONpath expressão para filtrar os dados de saída.
-
Para obter exemplos de cada tipo de filtro, consulte DataProcessing APIo.
-
-
Para realizar previsões em lote no seu conjunto de dados de entrada, selecione Criar tarefa de transformação em lote. Uma nova guia Trabalhos de transformação de lotes é exibida.
-
Na guia Trabalhos de transformação de lotes: Localize o nome do seu trabalho na seção Status. Em seguida, verifique o progresso do trabalho.
Para usar o SageMaker APIs para inferência em lote, há três etapas:
-
Obtenha definições de candidatos
As definições candidatas de InferenceContainerssão usadas para criar um SageMaker modelo.
O exemplo a seguir mostra como usar o DescribeAutoMLJobAPIpara obter definições de candidato para o melhor candidato a modelo. Veja o AWS CLI comando a seguir como exemplo.
aws sagemaker describe-auto-ml-job --auto-ml-job-name
<job-name>
--region<region>
Use o ListCandidatesForAutoMLJobAPIpara listar todos os candidatos. O comando AWS CLI a seguir é um exemplo.
aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name
<job-name>
--region<region>
-
Crie um SageMaker modelo
Para criar um SageMaker modelo usando o CreateModelAPI, use as definições de contêiner das etapas anteriores. O comando AWS CLI a seguir é um exemplo.
aws sagemaker create-model --model-name '
<your-custom-model-name>
' \ --containers ['<container-definition1
>,<container-definition2>
,<container-definition3>
]' \ --execution-role-arn '<execution-role-arn>
' --region '<region>
-
Crie um trabalho de SageMaker transformação
O exemplo a seguir cria um trabalho de SageMaker transformação com CreateTransformJobAPIo. Veja o AWS CLI comando a seguir como exemplo.
aws sagemaker create-transform-job --transform-job-name '
<your-custom-transform-job-name>
' --model-name '<your-custom-model-name-from-last-step>
'\ --transform-input '{ "DataSource": { "S3DataSource": { "S3DataType": "S3Prefix", "S3Uri": "<your-input-data>
" } }, "ContentType": "text/csv
", "SplitType": "Line" }'\ --transform-output '{ "S3OutputPath": "<your-output-path>
", "AssembleWith": "Line" }'\ --transform-resources '{ "InstanceType": "<instance-type>
", "InstanceCount":1
}' --region '<region>
'
Verifique o progresso do seu trabalho de transformação usando DescribeTransformJobAPIo. Veja o AWS CLI comando a seguir como exemplo.
aws sagemaker describe-transform-job --transform-job-name '
<your-custom-transform-job-name>
' --region<region>
Depois que o trabalho for concluído, o resultado previsto estará disponível em <your-output-path>
.
O nome do arquivo resultante tem o seguinte formato: <input_data_file_name>.out
. Por exemplo, se seu arquivo de entrada for text_x.csv
, o nome de saída será text_x.csv.out
.
As guias a seguir mostram exemplos de código para SageMaker Python, AWS SDK para SDK Python (boto3) e o. AWS CLI
Para criar um trabalho de inferência em lote em uma conta diferente daquela em que o modelo foi gerado, siga as instruções em Implemente modelos de contas diferentes. Em seguida, você pode criar modelos e transformar trabalhos seguindo o Implemente usando SageMaker APIs.