Exemplos e mais informações: use seu próprio algoritmo ou modelo - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Exemplos e mais informações: use seu próprio algoritmo ou modelo

Os seguintes notebooks Jupyter e informações adicionais mostram como usar seus próprios algoritmos ou modelos pré-treinados de uma instância de notebook da Amazon. SageMaker Para obter links para os GitHub repositórios com os Dockerfiles pré-criados para o, TensorFlow MXNet, Chainer e PyTorch estruturas e instruções sobre como usar os AWS SDK for Python (Boto3) estimadores para executar seus próprios algoritmos de treinamento no Learner e seus próprios modelos na hospedagem, consulte SageMaker SageMaker Imagens pré-construídas SageMaker do Docker para aprendizado profundo

Configuração

  1. Crie uma instância de SageMaker notebook. Para obter instruções sobre como criar e acessar instâncias do caderno Jupyter, consulte Instâncias do Amazon SageMaker Notebook.

  2. Abra a instância de caderno.

  3. Escolha a guia SageMaker Exemplos para obter uma lista de todos os SageMaker exemplos de cadernos.

  4. Abra os blocos de anotações de amostra na seção Funcionalidade avançada em sua instância do notebook ou GitHub usando os links fornecidos. Para abrir um caderno, escolha sua aba Uso e depois escolha Criar cópia.

Modelos hospedeiros treinados no Scikit-learn

Para aprender a hospedar modelos treinados no Scikit-learn para fazer previsões SageMaker injetando-os em contêineres primários de k-means e XGBoost, consulte os seguintes exemplos de cadernos.

Modelos Package TensorFlow e Scikit-learn para uso em SageMaker

Para saber como empacotar algoritmos que você desenvolveu TensorFlow e estruturas scikit-learn para treinamento e implantação no SageMaker ambiente, consulte os notebooks a seguir. Eles mostram como criar, registrar e implantar seus próprios contêineres do Docker usando Dockerfiles.

Treine e implante uma rede neural em SageMaker

Para aprender a treinar uma rede neural localmente usando o MXNet or e TensorFlow, em seguida, criar um endpoint a partir do modelo treinado e implantá-lo SageMaker, consulte os notebooks a seguir. O modelo do MXNet é treinado para reconhecer números manuscritos do conjunto de dados MNIST. O TensorFlow modelo é treinado para classificar as íris.

Treinamento usando o Modo Pipe

Para saber como usar um Dockerfile para criar um contêiner que chame o train.py script e use o modo de pipe para treinar um algoritmo personalizado, consulte o caderno a seguir. No modo de pipe, os dados de entrada são transferidos para o algoritmo durante o treinamento. Isso pode diminuir o tempo de treinamento em comparação ao uso do modo de arquivo.

Traga seus próprios modelos em R

Para saber como adicionar uma imagem no R personalizada para criar e treinar um modelo em um AWS SMS caderno, consulte a postagem do blog a seguir. Esta postagem do blog usa um Dockerfile R de amostra de uma biblioteca de amostras de imagens personalizadas do SageMaker Studio Classic.

Estender uma imagem de PyTorch contêiner pré-criada

Para saber como estender uma imagem de SageMaker PyTorch contêiner pré-criada quando você tem requisitos funcionais adicionais para seu algoritmo ou modelo que a imagem pré-criada do Docker não suporta, consulte o bloco de notas a seguir.

Para obter mais informações sobre como estender um contêiner, consulte Estender um contêiner pré-construído.

Treine e depure trabalhos de treinamento em um contêiner personalizado

Para saber como treinar e depurar trabalhos de treinamento usando o SageMaker Debugger, consulte o caderno a seguir. Um script de treinamento fornecido por meio deste exemplo usa o modelo TensorFlow Keras ResNet 50 e o conjunto de dados CIFAR10. Um contêiner personalizado do Docker é criado com o script de treinamento e enviado para o Amazon ECR. Enquanto o trabalho de treinamento está em execução, o Debugger coleta as saídas do tensor e identifica problemas de depuração. Com as ferramentas da biblioteca de clientes smdebug, você pode definir um objeto de teste smdebug que chama o trabalho de treinamento e as informações de depuração, verificar o status da regra de treinamento e do Debugger e recuperar tensores salvos em um bucket do Amazon S3 para analisar problemas de treinamento.