Marcos y algoritmos compatibles - Amazon SageMaker

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Marcos y algoritmos compatibles

La siguiente tabla muestra los marcos y algoritmos de aprendizaje SageMaker automático compatibles con Debugger.

SageMaker-supported frameworks and algorithms Debugging output tensors

TensorFlow

AWS TensorFlow contenedores de aprendizaje profundo 1.15.4 o versiones posteriores

PyTorch

AWS PyTorch contenedores de aprendizaje profundo 1.5.0 o versiones posteriores

MXNet

AWS Contenedores de aprendizaje profundo MXNet 1.6.0 o versiones posteriores

XGBoost

1.0-1, 1.2-1, 1.3-1

SageMaker estimador genérico

Contenedores de formación personalizados (disponibles para TensorFlow MXNet y XGBoost con registro manual de ganchos) PyTorch

  • Depuración de tensores de salida: rastrea y depura los parámetros del modelo, como los pesos, los gradientes, los sesgos y los valores escalares de tu trabajo de entrenamiento. Los marcos de aprendizaje profundo disponibles son Apache MXNet TensorFlow PyTorch, y XGBoost.

    importante

    En el caso del TensorFlow marco de trabajo con Keras, SageMaker Debugger desaprueba la compatibilidad con cero cambios de código para los modelos de depuración creados con los módulos de la versión 2.6 y versiones posteriores. tf.keras TensorFlow Esto se debe a los cambios importantes anunciados en la nota de la versión 2.6.0. TensorFlow Para obtener instrucciones sobre cómo actualizar el script de entrenamiento, consulte Adapta tu guion de entrenamiento TensorFlow .

    importante

    A partir de la PyTorch versión 1.12.0 y versiones posteriores, SageMaker Debugger deja de admitir cambios de código cero en los modelos de depuración.

    Esto se debe a cambios importantes que hacen SageMaker que Debugger interfiera con la funcionalidad. torch.jit Para obtener instrucciones sobre cómo actualizar el script de entrenamiento, consulte Adapte su guion PyTorch de entrenamiento.

Si el marco o algoritmo que desea entrenar y depurar no aparece en la tabla, vaya al foro de AWS debate y deje sus comentarios sobre SageMaker Debugger.

Regiones de AWS

Amazon SageMaker Debugger está disponible en todas las regiones en las que Amazon SageMaker presta servicio, excepto en las siguientes regiones.

  • Asia-Pacífico (Yakarta): ap-southeast-3

Para saber si Amazon SageMaker está en servicio en tu empresa Región de AWS, consulta Servicios AWS regionales.

Utilice el depurador con contenedores de entrenamiento personalizados

Traiga sus contenedores de formación SageMaker y obtenga información sobre sus trabajos de formación con Debugger. Maximice la eficiencia de su trabajo optimizando su modelo en las instancias de Amazon EC2 mediante las funciones de supervisión y depuración.

Para obtener más información sobre cómo crear un contenedor de entrenamiento con la biblioteca de clientes sagemaker-debugger, llevarlo al Amazon Elastic Container Registry (Amazon ECR), luego supervisar y depurar, consulte Uso del depurador con contenedores de entrenamiento personalizados.

Debugger: repositorios de código abierto GitHub

Las API del depurador se proporcionan a través del SDK de SageMaker Python y están diseñadas para crear configuraciones de enlaces y reglas del depurador para las operaciones de la DescribeTrainingJobAPI SageMaker CreateTrainingJoby de la API. La biblioteca de clientes sagemaker-debugger proporciona herramientas para registrar los enlaces y acceder a los datos de entrenamiento a través de su función de prueba, además de sus operaciones de API flexibles y potentes. Es compatible con los marcos de aprendizaje automático TensorFlow PyTorch, MXNet y XGBoost en Python 3.6 y versiones posteriores.

Para obtener información directa acerca de las operaciones del depurador y de la API sagemaker-debugger, consulte los siguientes enlaces:

Si utilizas el SDK para Java para realizar trabajos de SageMaker formación y quieres configurar las API del depurador, consulta las siguientes referencias: