Cadres et algorithmes pris en charge - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Cadres et algorithmes pris en charge

Le tableau suivant montre SageMaker frameworks et algorithmes d'apprentissage automatique pris en charge par Debugger.

SageMaker-supported frameworks and algorithms Debugging output tensors

TensorFlow

AWS TensorFlow conteneurs de deep learning1.15.4 ou version ultérieure

PyTorch

AWS PyTorch conteneurs de deep learning1.5.0 ou version ultérieure

MXNet

AWS MXNet Deep Learning Containers version 1.6.0 ou ultérieure

XGBoost

1,0-1, 1,2-1, 1,3-1

SageMaker estimateur générique

Conteneurs de formation personnalisés(disponible pour TensorFlow, PyTorch, MXnet et XGBoost (avec enregistrement manuel du crochet)

  • Débogage des tenseurs de sortie : suivez et déboguez les paramètres du modèle, tels que les pondérations, les gradients, les biais et les valeurs scalaires de votre tâche d'entraînement. Les frameworks d'apprentissage en profondeur disponibles sont Apache MXNet, TensorFlow, PyTorch, et XGBoost.

    Important

    Pour le TensorFlow cadre avec Keras, SageMaker Debugger déconseille la prise en charge du code zéro pour les modèles de débogage créés à l'aide dutf.kerasmodules de TensorFlow 2.6 et versions ultérieures. Cela est dû aux changements de fond annoncés dansTensorFlow Note de mise à jour 2.6.0. Pour obtenir des instructions de mise à jour de votre script d'entraînement, consultez Adapter votre script d'entraînement TensorFlow.

    Important

    À partir de PyTorch v1.12.0 et versions ultérieures, SageMaker Debugger rend obsolète la prise en charge du changement de code zéro pour les modèles de débogage.

    Cela est dû à des modifications brisées qui provoquent SageMaker Débogueur pour interférer avec letorch.jitfonctionnalité. Pour obtenir des instructions de mise à jour de votre script d'entraînement, consultez Adaptation de votre script d'entraînement PyTorch.

Si le framework ou l'algorithme que vous souhaitez entraîner et debugger n'est pas répertorié dans le tableau, accédez auAWSForum de discussionet laissez des commentaires sur SageMaker Debugger.

Régions AWS

Amazon SageMaker Debugger est disponible dans toutes les régions où Amazon SageMaker est en service sauf dans la région suivante.

  • Asie-Pacifique (Jakarta) : ap-southeast-3

Pour savoir si Amazon SageMaker est en service dans votreRégion AWS, voirAWSServices régionaux.

Utiliser Debugger avec des conteneurs d'entraînement personnalisés

Apportez vos conteneurs de formation à SageMaker et obtenez des informations sur vos tâches de formation à l'aide du débogage. Améliorez votre efficacité en optimisant votre modèle sur les instances Amazon EC2 à l'aide des fonctions de surveillance et de débogage.

Pour savoir comment créer votre conteneur d'entraînement avec la bibliothèque client sagemaker-debugger, le transmettre à Amazon Elastic Container Registry (Amazon ECR) et le contrôler et le déboguer, consultez Utiliser Debugger avec des conteneurs d'entraînement personnalisés.

Debugger open source GitHub Référentiels

Les API de débogage sont fournies par le biais du SageMaker SDK Python et conçu pour créer des configurations de hook et de règles Debugger pour SageMaker CreateTrainingJobet DescribeTrainingJobOpérations d'API. La bibliothèque client sagemaker-debugger fournit des outils pour enregistrer des hooks et accéder aux données d'entraînement via sa fonction d'essai, le tout grâce à ses opérations d'API flexibles et puissantes. Il prend en charge les frameworks d'apprentissage automatique TensorFlow, PyTorch, MxNet et XGBoost sur Python 3.6 et versions ultérieures.

Pour obtenir des ressources directes sur Debugger et les opérations d'API sagemaker-debugger, consultez les liens suivants :

Si vous utilisez le SDK pour Java pour SageMaker les tâches d'entraînement et si vous souhaitez configurer les API Debugger, consultez les références suivantes :