As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Exemplos e mais informações: use seu próprio algoritmo ou modelo
Os seguintes notebooks Jupyter e informações adicionais mostram como usar seus próprios algoritmos ou modelos pré-treinados de uma instância de notebook da Amazon. SageMaker Para obter links para os GitHub repositórios com os Dockerfiles pré-criados para o, TensorFlow MXNet, Chainer e PyTorch estruturas e instruções sobre como usar os AWS SDK for Python (Boto3) estimadores para executar seus próprios algoritmos de treinamento no Learner e seus próprios modelos na hospedagem, consulte SageMaker SageMaker Imagens pré-construídas SageMaker do Docker para aprendizado profundo
Configuração
-
Crie uma instância de SageMaker notebook. Para obter instruções sobre como criar e acessar instâncias do caderno Jupyter, consulte Instâncias do Amazon SageMaker Notebook.
-
Abra a instância de caderno.
-
Escolha a guia SageMaker Exemplos para obter uma lista de todos os SageMaker exemplos de cadernos.
-
Abra os blocos de anotações de amostra na seção Funcionalidade avançada em sua instância do notebook ou GitHub usando os links fornecidos. Para abrir um caderno, escolha sua aba Uso e depois escolha Criar cópia.
Modelos hospedeiros treinados no Scikit-learn
Para aprender a hospedar modelos treinados no Scikit-learn para fazer previsões SageMaker injetando-os em contêineres primários de k-means e XGBoost, consulte os seguintes exemplos de cadernos.
Modelos Package TensorFlow e Scikit-learn para uso em SageMaker
Para saber como empacotar algoritmos que você desenvolveu TensorFlow e estruturas scikit-learn para treinamento e implantação no SageMaker ambiente, consulte os notebooks a seguir. Eles mostram como criar, registrar e implantar seus próprios contêineres do Docker usando Dockerfiles.
Treine e implante uma rede neural em SageMaker
Para aprender a treinar uma rede neural localmente usando o MXNet or e TensorFlow, em seguida, criar um endpoint a partir do modelo treinado e implantá-lo SageMaker, consulte os notebooks a seguir. O modelo do MXNet é treinado para reconhecer números manuscritos do conjunto de dados MNIST. O TensorFlow modelo é treinado para classificar as íris.
Treinamento usando o Modo Pipe
Para saber como usar um Dockerfile para criar um contêiner que chame o train.py script
e use o modo de pipe para treinar um algoritmo personalizado, consulte o caderno a seguir. No modo de pipe, os dados de entrada são transferidos para o algoritmo durante o treinamento. Isso pode diminuir o tempo de treinamento em comparação ao uso do modo de arquivo.
Traga seus próprios modelos em R
Para saber como adicionar uma imagem no R personalizada para criar e treinar um modelo em um AWS SMS
caderno, consulte a postagem do blog a seguir. Esta postagem do blog usa um Dockerfile R de amostra de uma biblioteca de amostras de imagens personalizadas do SageMaker Studio Classic
Estender uma imagem de PyTorch contêiner pré-criada
Para saber como estender uma imagem de SageMaker PyTorch contêiner pré-criada quando você tem requisitos funcionais adicionais para seu algoritmo ou modelo que a imagem pré-criada do Docker não suporta, consulte o bloco de notas a seguir.
Para obter mais informações sobre como estender um contêiner, consulte Estender um contêiner pré-construído.
Treine e depure trabalhos de treinamento em um contêiner personalizado
Para saber como treinar e depurar trabalhos de treinamento usando o SageMaker Debugger, consulte o caderno a seguir. Um script de treinamento fornecido por meio deste exemplo usa o modelo TensorFlow Keras ResNet 50 e o conjunto de dados CIFAR10. Um contêiner personalizado do Docker é criado com o script de treinamento e enviado para o Amazon ECR. Enquanto o trabalho de treinamento está em execução, o Debugger coleta as saídas do tensor e identifica problemas de depuração. Com as ferramentas da biblioteca de clientes smdebug
, você pode definir um objeto de teste smdebug
que chama o trabalho de treinamento e as informações de depuração, verificar o status da regra de treinamento e do Debugger e recuperar tensores salvos em um bucket do Amazon S3 para analisar problemas de treinamento.