Implante um modelo compilado usando o console - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Implante um modelo compilado usando o console

Você deve atender à seção de pré-requisitos se o modelo tiver sido compilado usando AWS SDK for Python (Boto3) o console da Amazon ou o AWS CLI console da Amazon. SageMaker Siga as etapas abaixo para criar e implantar um modelo SageMaker compilado pelo NEO usando o SageMaker console https://console.aws.amazon.com/. SageMaker

Implante o modelo

Depois de atender aos pré-requisitos, use as etapas a seguir para implantar um modelo compilado com o Neo:

  1. Escolha Models (Modelos) e depois Create models (Criar modelos) no grupo Inference (Inferência). Na página Criar modelo, preencha os campos Nome do modelo, Função do IAM e, se necessário, VPC (opcional).

    Criar modelo Neo para inferência
  2. Para adicionar informações sobre o contêiner usado para implantar o modelo, selecione Adicionar contêiner e Próximo. Preencha os campos Opções de entrada de contêiner, Local de imagem do código de inferência e Local dos artefatos do modelo e, opcionalmente, Nome de host do contêiner e Variáveis de ambiente.

    Criar modelo Neo para inferência
  3. Para implantar modelos compilados pelo Neo, escolha o seguinte:

    • Opções de entrada de contêiner: escolha Fornecer artefatos do modelo e a imagem de inferência:

    • Localização da imagem do código de inferência: escolha o URI da imagem de inferência em Neo Inference Container Images, dependendo da AWS região e do tipo de aplicativo.

    • Local dos artefatos do modelo: insira o URI completo do bucket do S3 do artefato do modelo compilado gerado pela API de compilação do Neo.

    • Variáveis de ambiente:

      • Deixe esse campo em branco para o SageMakerXGBoost.

      • Se você treinou seu modelo usando SageMaker, especifique a variável de ambiente SAGEMAKER_SUBMIT_DIRECTORY como o URI do bucket do Amazon S3 que contém o script de treinamento.

      • Se você não treinou seu modelo usando SageMaker, especifique as seguintes variáveis de ambiente:

        Chave Valores para MXNet e PyTorch Valores TensorFlow
        SAGEMAKER_PROGRAM inference.py inference.py
        SAGEMAKER_SUBMIT_DIRECTORY /opt/ml/modelo/código /opt/ml/modelo/código
        SAGEMAKER_CONTAINER_LOG_LEVEL 20 20
        SAGEMAKER_REGION <your region> <your region>
        MMS_DEFAULT_RESPONSE_TIMEOUT 500 Deixe esse campo em branco para TF
  4. Confirme se as informações dos contêineres são precisas e, em seguida, escolha Create model (Criar modelo). Na página de destino Criar modelo, escolha Criar endpoint.

    Página de destino de criação do modelo
  5. No diagrama Criar e configurar endpoint, especifique o Nome do endpoint. Para Anexar configuração do endpoint, escolha Criar uma nova configuração do endpoint.

    Interface de usuário do console do Neo para criar e configurar o endpoint.
  6. Na página Nova configuração do endpoint, especifique Nome da configuração do endpoint.

    Interface de usuário do console do Neo para nova configuração de endpoint.
  7. Escolha Editar ao lado do nome do modelo e especifique o Tipo de instância correto na página Editar variante de produção. É imperativo que o valor de Tipo de instância corresponda ao especificado no trabalho de compilação.

    Interface de usuário do console do Neo para nova configuração de endpoint.
  8. Escolha Save (Salvar).

  9. Na página Nova configuração de endpoint, escolha Criar configuração de endpoint e, em seguida, escolha Criar endpoint.