Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Entrena a un modelo con Amazon SageMaker
El siguiente diagrama muestra cómo se entrena e implementa un modelo con Amazon SageMaker. El código de entrenamiento accede a los datos de entrenamiento y genera los artefactos del modelo desde un bucket de S3. Luego, puede realizar solicitudes a un punto final del modelo para ejecutar la inferencia. Puede almacenar las imágenes del contenedor de entrenamiento y de inferencia en un Amazon Elastic Container Registry (ECR).
La siguiente guía destaca dos componentes SageMaker: el entrenamiento del modelo y el despliegue del modelo.
Para adiestrar a un modelo SageMaker, debe crear un trabajo de formación. El trabajo de capacitación incluye la siguiente información:
-
La URL del depósito de Amazon Simple Storage Service (Amazon S3) en el que has almacenado los datos de entrenamiento.
-
Los recursos de cómputo que desea utilizar SageMaker para el entrenamiento de modelos. Los recursos informáticos son instancias informáticas de aprendizaje automático (ML) administradas por SageMaker.
-
La URL del bucket de S3 en el que desea almacenar la salida del trabajo.
-
La ruta de Amazon Elastic Container Registry donde se almacena el código de entrenamiento. Para obtener más información, consulte las Rutas de Docker Registry y código de ejemplo.
nota
El conjunto de datos de entrada debe estar en el mismo Región de AWS que el de su trabajo de entrenamiento.
Dispone de las siguientes opciones para un algoritmo de capacitación:
-
Utilice un algoritmo proporcionado por SageMaker: SageMaker proporciona docenas de algoritmos de entrenamiento integrados y cientos de modelos previamente entrenados. Si alguno de estos se adapta a tus necesidades, es una excelente out-of-the-box solución para un entrenamiento rápido de modelos. Para obtener una lista de los algoritmos proporcionados por SageMaker, consulteUsa algoritmos SageMaker integrados de Amazon o modelos previamente entrenados. Para probar un ejercicio que use un algoritmo proporcionado por SageMaker, consulte Introducción. También puede utilizarlos SageMaker JumpStart para utilizar algoritmos y modelos a través de la interfaz de usuario de Studio Classic.
-
Utilice SageMaker Debugger: para inspeccionar los parámetros y datos de entrenamiento a lo largo del proceso de entrenamiento cuando trabaje con los marcos de aprendizaje TensorFlow PyTorch, y Apache MXNet o el algoritmo XGBoost. El depurador detecta automáticamente y alerta a los usuarios de errores frecuentes, como valores de los parámetros que son demasiado grandes o pequeños. Para obtener más información acerca del uso del Depurador, consulte Utilice el depurador de Amazon SageMaker para depurar y mejorar el desempeño del modelo. Los cuadernos de muestra de Debugger están disponibles en Amazon SageMaker Debugger
Samples. -
Use Apache Spark con SageMaker: SageMaker proporciona una biblioteca que puede usar en Apache Spark para entrenar modelos. SageMaker El uso de la biblioteca proporcionada por SageMaker es similar al uso de Apache Spark MLlib. Para obtener más información, consulte Usa Apache Spark con Amazon SageMaker.
-
Envíe código personalizado para capacitarse con marcos de aprendizaje profundo: puede enviar código Python personalizado que utilice TensorFlow PyTorch, o Apache MXNet para el entrenamiento de modelos. Para obtener más información, consulte TensorFlow Úselo con Amazon SageMaker, PyTorch Úselo con Amazon SageMaker y Utilice Apache MXNet con Amazon SageMaker.
-
Utilice sus propios algoritmos personalizados: junte el código como una imagen de Docker y especifique la ruta de registro de la imagen en una llamada a la API. SageMaker
CreateTrainingJob
Para obtener más información, consulte Utilizar contenedores de Docker para crear modelos. -
Usa un algoritmo al que te suscribasAWS Marketplace: para obtener más información, consulta. Búsqueda y suscripción a algoritmos y paquetes de modelos en AWS Marketplace
Después de crear el trabajo de entrenamiento, SageMaker lanza las instancias de cómputo de aprendizaje automático y usa el código de entrenamiento y el conjunto de datos de entrenamiento para entrenar el modelo. Guarda los artefactos del modelo resultantes y otras salidas en el bucket de S3 que especificó para ese fin.
Puedes crear un trabajo de entrenamiento con la SageMaker consola o la API. Para obtener más información sobre la creación de un trabajo de capacitación con la API, consulte la API CreateTrainingJob
.
Al crear un trabajo de formación con la API, SageMaker replica todo el conjunto de datos en las instancias de procesamiento de aprendizaje automático de forma predeterminada. Para SageMaker replicar un subconjunto de los datos en cada instancia de cómputo de aprendizaje automático, debes configurar el S3DataDistributionType
campo en. ShardedByS3Key
Puede configurar este campo usando el SDK de bajo nivel. Para obtener más información, consulte S3DataDistributionType
en S3DataSource
.
importante
Para evitar que el contenedor de algoritmos compita por la memoria, reservamos memoria para nuestros procesos SageMaker críticos del sistema en sus instancias de procesamiento de aprendizaje automático y, por lo tanto, no puede esperar ver toda la memoria de su tipo de instancia.