Ejemplos y más información: usar algoritmo o modelo propio - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Ejemplos y más información: usar algoritmo o modelo propio

Los siguientes cuadernos de Jupyter y la información adicional muestran cómo utilizar sus propios algoritmos o modelos previamente entrenados desde una instancia de Amazon Notebook. SageMaker Para obtener enlaces a los GitHub repositorios con los Dockerfiles prediseñados para TensorFlow MXNet, Chainer y los PyTorch marcos, así como instrucciones sobre el uso de los AWS SDK for Python (Boto3) estimadores para ejecutar sus propios algoritmos de entrenamiento en Learner y sus propios modelos en el SageMaker alojamiento, consulte SageMaker Imágenes de SageMaker Docker prediseñadas para aprendizaje profundo

Configuración

  1. Cree una instancia de bloc de notas. SageMaker Para obtener instrucciones sobre cómo crear y obtener acceso a instancias de cuaderno de Jupyter, consulte Instancias de Amazon SageMaker Notebook.

  2. Abra la instancia de cuaderno creada.

  3. Seleccione la pestaña SageMaker Ejemplos para ver una lista de todos los cuadernos de SageMaker ejemplo.

  4. Abre los cuadernos de muestra desde la sección Funcionalidad avanzada de tu bloc de notas o desde los GitHub enlaces proporcionados. Para abrir un bloc de notas, elija su pestaña Usar y, a continuación, elija Crear copia.

Alojar modelos entrenados en Scikit-learn

Para aprender a alojar modelos entrenados en Scikit-learn para hacer predicciones SageMaker insertándolos en contenedores k-means y XGBoost propios, consulta los siguientes ejemplos de cuadernos.

Modelos Package TensorFlow y Scikit-learn para su uso en SageMaker

Para aprender a empaquetar los algoritmos que ha desarrollado TensorFlow y los marcos de scikit-learn para su entrenamiento e implementación en el SageMaker entorno, consulte los siguientes cuadernos. Muestran cómo crear, registrar e implementar sus propios contenedores de Docker mediante los Dockerfiles.

Entrene e implemente una red neuronal en SageMaker

Para aprender a entrenar una red neuronal localmente con MXNet o TensorFlow, luego, crear un punto final a partir del modelo entrenado e implementarlo SageMaker, consulte los siguientes cuadernos. El modelo MXNet está capacitada para reconocer los números escritos a mano desde el conjunto de datos MNIST. El TensorFlow modelo está entrenado para clasificar los iris.

Entrenamiento en modo canalización

Para obtener información sobre cómo utilizar un Dockerfile para crear un contenedor que llame a train.py script y utilice un modo de canalización para entrenar de forma personalizada un algoritmo, consulte el siguiente cuaderno. En modo de canalización, los datos de entrada se transfieren al algoritmo mientras se capacita. Esto puede reducir el tiempo de capacitación en comparación con el uso del modo de archivo.

Aportar el modelo R propio

Para aprender a añadir una imagen R personalizada para crear y entrenar un modelo en un cuaderno AWS SMS , consulte la siguiente entrada del blog. Esta entrada de blog utiliza un ejemplo de Dockerfile R de una biblioteca de ejemplos de imágenes personalizadas de SageMaker Studio Classic.

Amplíe una imagen de PyTorch contenedor prediseñada

Para obtener información sobre cómo ampliar una imagen de SageMaker PyTorch contenedor prediseñada cuando el algoritmo o modelo no admite requisitos funcionales adicionales, consulte el siguiente cuaderno.

Para obtener más información sobre cómo extender un contenedor, consulte Extender un contenedor precompilado.

Entrenar y depurar los trabajos de entrenamiento en un contenedor personalizado

Para aprender a entrenar y depurar trabajos de entrenamiento con SageMaker Debugger, consulta el siguiente cuaderno. Un guion de entrenamiento proporcionado en este ejemplo utiliza el modelo TensorFlow Keras ResNet 50 y el conjunto de datos CIFAR10. Se crea un contenedor personalizado de Docker con el script de entrenamiento y se envía a Amazon ECR. Mientras se ejecuta el trabajo de entrenamiento, Debugger recopila los resultados de los tensores e identifica los problemas de depuración. Con las herramientas de la biblioteca del cliente smdebug, puede configurar un objeto de prueba smdebug que invoque el trabajo de entrenamiento y la información de depuración, comprobar el estado de las reglas de entrenamiento y depuración y recuperar los tensores guardados en un bucket de Amazon S3 para analizar los problemas de entrenamiento.