As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Como a Amazon SageMaker executa sua imagem de treinamento
Você pode usar um script de ponto de entrada personalizado para automatizar a infraestrutura para treinar em um ambiente de produção. Se você passar seu script de ponto de entrada para o contêiner do Docker, também poderá executá-lo como um script independente sem reconstruir suas imagens. SageMakerprocessa sua imagem de treinamento usando um script de ponto de entrada do contêiner Docker.
Esta seção mostra como usar um ponto de entrada personalizado sem o uso do kit de ferramentas de treinamento. Se você quiser usar um ponto de entrada personalizado, mas não estiver familiarizado com a configuração manual de um contêiner do Docker, recomendamos que você use a biblioteca do kit de ferramentas de SageMaker treinamento
Por padrão, SageMaker procura um script chamado train
dentro do seu contêiner. Você também pode fornecer manualmente seu próprio ponto de entrada personalizado usando os ContainerEntrypoint
parâmetros ContainerArguments
e da AlgorithmSpecificationAPI.
Você tem as duas opções a seguir para configurar manualmente o contêiner do Docker para executar sua imagem.
-
Use a CreateTrainingJobAPI e um contêiner do Docker com uma instrução de ponto de entrada contida nele.
-
Use a API
CreateTrainingJob
e aprove o script de treinamento de fora do contêiner do Docker.
Se você aprovar o script de treinamento de fora do contêiner do Docker, não precisará reconstruir o contêiner do Docker ao atualizar o script. Você também pode usar vários scripts diferentes para serem executados no mesmo contêiner.
Seu script de ponto de entrada deve conter o código de treinamento para sua imagem. Se você usar o parâmetro opcional source_dir
dentro de um estimadorsource_dir
. Se você não usar o source_dir
, poderá especificar o ponto de entrada usando o parâmetro entry_point
. Para ver um exemplo de um script de ponto de entrada personalizado que contém um estimador, consulte Traga seu próprio modelo
Execute um trabalho de treinamento com um script de ponto de entrada incluído no contêiner do Docker
SageMaker pode executar um script de ponto de entrada empacotado dentro do seu contêiner Docker.
-
Por padrão, a Amazon SageMaker executa o seguinte contêiner.
docker run
image
train -
SageMaker substitui todas as instruções CMD
padrão em um contêiner especificando o train
argumento após o nome da imagem. No arquivo do contêiner do Docker, use o formulárioexec
da instruçãoENTRYPOINT
.ENTRYPOINT ["
executable
", "param1
", "param2
", ...]O exemplo a seguir mostra como especificar uma instrução de ponto de entrada do python chamada
k-means-algorithm.py
.ENTRYPOINT ["python", "k-means-algorithm.py"]
A forma
exec
da instruçãoENTRYPOINT
inicia o executável diretamente, não como elemento filho de/bin/sh
. Isso permite que ele receba sinais comoSIGTERM
eSIGKILL
de SageMaker APIs. As condições a seguir se aplicam ao usar as SageMaker APIs.-
A
CreateTrainingJob
API tem uma condição de parada que SageMaker direciona a interrupção do treinamento do modelo após um tempo específico. -
A seguir, a API do
StopTrainingJob
. Esta API emite o equivalente dodocker stop
, com um comando de tempo limite de 2 minutos, para interromper tranquilamente o contêiner especificado.docker stop -t 120
Para tentar interromper o contêiner em execução, o comando envia um sinal
SIGTERM
. Após o tempo limite de 2 minutos, a API enviaSIGKILL
e interrompe os contêineres à força. Se o contêiner manipula o sinalSIGTERM
com tranquilidade e sai dentro de 120 segundos após recebê-lo, nenhum sinalSIGKILL
é enviado.
Se você quiser acessar os artefatos do modelo intermediário após SageMaker interromper o treinamento, adicione código para lidar com o salvamento de artefatos em seu
SIGTERM
manipulador. -
-
Se você planeja usar dispositivos de GPU para treinamento de modelos, os contêineres devem ser compatíveis com
nvidia-docker
. Somente o kit de ferramentas CUDA deve ser incluído em contêineres. Não empacote drivers NVIDIA com a imagem. Para obter mais informações sobrenvidia-docker
, consulte NVIDIA/nvidia-docker. -
Você não pode usar o
tini
inicializador como seu script de ponto de entrada em SageMaker contêineres porque ele fica confuso com os argumentos e.train
serve
-
/opt/ml
e todos os subdiretórios são reservados por SageMaker treinamento. Ao criar a imagem do Docker do seu algoritmo, certifique-se de não colocar nenhum dado exigido pelo seu algoritmo nesse diretório. Porque se você fizer isso, os dados podem não estar mais visíveis durante o treinamento.
Para agrupar os scripts de shell ou Python na imagem do Docker, ou para fornecer o script em um bucket do Amazon S3 ou usando a (CLI) AWS Command Line Interface, continue na seção a seguir.
Agrupe o script de shell em um contêiner do Docker
Se você quiser agrupar um script de shell personalizado em sua imagem do Docker, use as etapas a seguir.
-
Copie o script de shell do diretório de trabalho para dentro do contêiner do Docker. O trecho de código a seguir copia um script de ponto de entrada personalizado
custom_entrypoint.sh
do diretório de trabalho atual para um contêiner do Docker localizado emmydir
. O exemplo a seguir pressupõe que a imagem do Docker de base tem o Python instalado.FROM
<base-docker-image>
:<tag>
# Copy custom entrypoint from current dir to /mydir on container COPY./custom_entrypoint.sh /mydir/
-
Crie e envie um contêiner do Docker para o Amazon Elastic Container Registry (Amazon ECR) seguindo as instruções em Enviar uma imagem do Docker no Guia do usuário do Amazon ECR.
-
Inicie o trabalho de treinamento executando o comando AWS CLI a seguir.
aws --region
<your-region>
sagemaker create-training-job \ --training-job-name<your-training-job-name>
\ --role-arn<your-execution-role-arn>
\ --algorithm-specification '{ \ "TrainingInputMode": "File", \ "TrainingImage": "<your-ecr-image>
", \ "ContainerEntrypoint": ["/bin/sh
"], \ "ContainerArguments": ["/mydir/custom_entrypoint.sh
"]}' \ --output-data-config '{"S3OutputPath": "s3://custom-entrypoint-output-bucket/
"}' \ --resource-config '{"VolumeSizeInGB":10
,"InstanceCount":1
,"InstanceType":"ml.m5.2xlarge
"}' \ --stopping-condition '{"MaxRuntimeInSeconds":180
}'
Agrupe o script do Python em um contêiner do Docker
Para agrupar um script Python personalizado na imagem do Docker, use as etapas a seguir.
-
Copie o script do Python do diretório de trabalho para dentro do contêiner do Docker. O trecho de código a seguir copia um script de ponto de entrada personalizado
custom_entrypoint.py
do diretório de trabalho atual para um contêiner do Docker localizado emmydir
.FROM
<base-docker-image>
:<tag>
# Copy custom entrypoint from current dir to /mydir on container COPY./custom_entrypoint.py /mydir/
-
Inicie o trabalho de treinamento executando o comando AWS CLI a seguir.
--algorithm-specification '{ \ "TrainingInputMode": "File", \ "TrainingImage": "
<your-ecr-image>
", \ "ContainerEntrypoint": ["python
"], \ "ContainerArguments": ["/mydir/custom_entrypoint.py
"]}' \
Execute um trabalho de treinamento com um script de ponto de entrada fora do contêiner do Docker
Você pode usar seu próprio contêiner do Docker para treinamento e transmitir um script de ponto de entrada de fora do contêiner do Docker. Há alguns benefícios em estruturar seu script de ponto de entrada fora do contêiner. Se você atualizar o script do ponto de entrada, você não precisará reconstruir o contêiner do Docker. Você também pode usar vários scripts diferentes para serem executados no mesmo contêiner.
Especifique a localização do seu script de treinamento usando os ContainerArguments
parâmetros ContainerEntrypoint
e da AlgorithmSpecificationAPI. Esses pontos de entrada e argumentos se comportam da mesma maneira que os pontos de entrada e argumentos do Docker. Os valores nesses parâmetros substituem os correspondentes ENTRYPOINT
ou CMD
fornecidos como parte do contêiner do Docker.
Quando você passa o script de ponto de entrada personalizado para o contêiner de treinamento do Docker, as entradas que você fornece determinam o comportamento do contêiner.
-
Por exemplo, se você fornecer somente
ContainerEntrypoint
, a sintaxe da solicitação usando a CreateTrainingJob API será a seguinte.{ "AlgorithmSpecification": { "ContainerEntrypoint": ["
string
"], ... } }Em seguida, o back-end de SageMaker treinamento executa seu ponto de entrada personalizado da seguinte maneira.
docker run --entrypoint
<ContainerEntrypoint>
imagenota
Se
ContainerEntrypoint
for fornecido, o back-end de SageMaker treinamento executa a imagem com o ponto de entrada fornecido e substitui o padrão na imagem.ENTRYPOINT
-
Se você fornecer somente
ContainerArguments
, SageMaker presume que o contêiner do Docker contenha um script de ponto de entrada. A sintaxe da solicitação usando a APICreateTrainingJob
é a seguinte:{ "AlgorithmSpecification": { "ContainerArguments": ["
arg1
", "arg2
"], ... } }O back-end de SageMaker treinamento executa seu ponto de entrada personalizado da seguinte maneira.
docker run image
<ContainerArguments>
-
Se você fornecer o
ContainerEntrypoint
eContainerArguments
, a sintaxe da solicitação usando a APICreateTrainingJob
será a seguinte:{ "AlgorithmSpecification": { "ContainerEntrypoint": ["
string
"], "ContainerArguments": ["arg1
", "arg2
"], ... } }O back-end de SageMaker treinamento executa seu ponto de entrada personalizado da seguinte maneira.
docker run --entrypoint
<ContainerEntrypoint>
image<ContainerArguments>
Você pode usar qualquer fonte InputDataConfig
compatível na API CreateTrainingJob
para fornecer um script de ponto de entrada para executar a imagem de treinamento.
Forneça o script de ponto de entrada em um bucket do Amazon S3
Para fornecer um script de ponto de entrada personalizado usando um bucket do S3, use o S3DataSource
parâmetro da DataSourceAPI para especificar a localização do script. Se você usar o parâmetro S3DataSource
, os itens a seguir serão obrigatórios:
-
O InputModedeve ser do tipo
File
. -
O S3 DataDistributionType deve ser
FullyReplicated
.
O exemplo a seguir tem um script chamado custom_entrypoint.sh colocado em um caminho para um bucket s3://<bucket-name>/<bucket
prefix>/custom_entrypoint.sh
do S3.
#!/bin/bash echo "Running custom_entrypoint.sh" echo "Hello you have provided the following arguments: " "$@"
Em seguida, você deve definir a configuração do canal de dados de entrada para executar um trabalho de treinamento. Faça isso usando o AWS CLI diretamente ou com um arquivo JSON.
Configure o canal de dados de entrada usando AWS CLI com um arquivo JSON
Para configurar seu canal de dados de entrada com um arquivo JSON, use o AWS CLI conforme mostrado na estrutura de código a seguir. Certifique-se de que todos os campos a seguir usem a sintaxe de solicitação definida na CreateTrainingJobAPI.
// run-my-training-job.json { "AlgorithmSpecification": { "ContainerEntrypoint": ["
/bin/sh
"], "ContainerArguments": ["/opt/ml/input/data/<your_channel_name>
/custom_entrypoint.sh
"], ... }, "InputDataConfig": [ { "ChannelName": "<your_channel_name>
", "DataSource": { "S3DataSource": { "S3DataDistributionType": "FullyReplicated", "S3DataType": "S3Prefix", "S3Uri": "s3://<bucket-name>
/<bucket_prefix>
" } }, "InputMode": "File", }, ...] }
Em seguida, execute o comando AWS CLI para iniciar o trabalho de treinamento a partir do arquivo JSON da seguinte maneira.
aws sagemaker create-training-job --cli-input-json file:
//run-my-training-job.json
Configure o canal de dados de entrada usando o AWS CLI diretamente
Para configurar o canal de dados de entrada com um arquivo JSON, use a estrutura de código AWS CLI a seguir:
aws --region
<your-region>
sagemaker create-training-job \ --training-job-name<your-training-job-name>
\ --role-arn<your-execution-role-arn>
\ --algorithm-specification '{ \ "TrainingInputMode": "File", \ "TrainingImage": "<your-ecr-image>
", \ "ContainerEntrypoint": ["/bin/sh
"], \ "ContainerArguments": ["/opt/ml/input/data/<your_channel_name>/custom_entrypoint.sh"]}
' \ --input-data-config '[{ \ "ChannelName":"<your_channel_name>
", \ "DataSource":{ \ "S3DataSource":{ \ "S3DataType":"S3Prefix", \ "S3Uri":"s3://<bucket-name>
/<bucket_prefix>
", \ "S3DataDistributionType":"FullyReplicated"}}}]' \ --output-data-config '{"S3OutputPath": "s3://custom-entrypoint-output-bucket/
"}' \ --resource-config '{"VolumeSizeInGB":10
,"InstanceCount":1
,"InstanceType":"ml.m5.2xlarge
"}' \ --stopping-condition '{"MaxRuntimeInSeconds":180
}'