Unterstützte Frameworks und Algorithmen - Amazon SageMaker AI

Unterstützte Frameworks und Algorithmen

Die folgende Tabelle zeigt die Frameworks und Algorithmen für Machine Learning von SageMaker AI, die von Debugger unterstützt werden.

SageMaker AI-supported frameworks and algorithms Debugging output tensors

TensorFlow

AWSTensorFlow Deep-Learning-Container 1.15.4 oder höher

PyTorch

AWSPyTorch Deep-Learning-Container 1.5.0 oder höher

MXNet

AWSMXNet Deep-Learning-Container 1.6.0 oder höher

XGBoost

1.0-1, 1.2-1, 1.3-1

Generischer SageMaker-AI-Schätzer

Benutzerdefinierte Trainingscontainer (verfügbar für TensorFlow, PyTorch, MXNet und XGBoost mit manueller Hook-Registrierung)

  • Ausgabetensoren debuggen – Verfolgen und debuggen Sie Modellparameter wie Gewichte, Gradienten, Verzerrungen und Skalarwerte Ihres Trainingsjobs. Verfügbare Deep-Learning-Frameworks sind Apache MXNet, TensorFlow, PyTorch und XGBoost.

    Wichtig

    Für das TensorFlow-Framework mit Keras lehnt SageMaker Debugger die Unterstützung für Debugging-Modelle ab, die mit den tf.keras Modulen von TensorFlow 2.6 und höher erstellt wurden. Dies ist auf wichtige Änderungen zurückzuführen, die in den Versionshinweisen zu TensorFlow 2.6.0 angekündigt wurden. Eine Anleitung zur Aktualisierung Ihres Trainingsskripts finden Sie unter Ihr TensorFlow-Trainingsskript anpassen.

    Wichtig

    Ab PyTorch v1.12.0 und höher verbietet SageMaker Debugger die Unterstützung von Debugging-Modellen ohne Codeänderung.

    Dies ist auf grundlegende Änderungen zurückzuführen, die dazu führen, dass SageMaker Debugger die Funktionalität beeinträchtigt. torch.jit Anweisungen zum Aktualisieren Ihres Training-Scripts finden Sie unter Anpassen Ihres PyTorch-Trainingsskripts.

Wenn das Framework oder der Algorithmus, den Sie trainieren und debuggen möchten, nicht in der Tabelle aufgeführt ist, besuchen Sie das AWSDiskussionsforum und hinterlassen Sie Feedback zu SageMaker Debugger.

AWS-Regionen

Amazon SageMaker Debugger ist in allen Regionen möglich, in denen Amazon SageMaker AI angeboten wird, außer in der folgenden Region.

  • Asien-Pazifik (Jakarta): ap-southeast-3

Um herauszufinden, ob Amazon SageMaker AI in Ihrer AWS-Region in Betrieb ist, sehen Sie sich AWS Regionale Dienste an.

Verwenden Sie den Debugger mit benutzerdefinierten Trainingscontainern

Bringen Sie Ihre Trainingscontainer zu SageMaker AI und gewinnen Sie mit Debugger Einblicke in Ihre Trainingsjobs. Maximieren Sie Ihre Arbeitseffizienz, indem Sie Ihr Modell auf Amazon-EC2-Instances mithilfe der Überwachungs- und Debugging-Funktionen optimieren.

Weitere Informationen dazu, wie Sie Ihren Trainingscontainer mit der sagemaker-debugger Client-Bibliothek erstellen, in die Amazon Elastic Container Registry (Amazon ECR) übertragen und überwachen und debuggen können, finden Sie unter Verwenden Sie den Debugger mit benutzerdefinierten Trainingscontainern.

Debugger Open-Source-GitHub-Repositorien

Debugger-APIs werden über das SageMaker Python SDK bereitgestellt und sind darauf ausgelegt, Debugger-Hook- und Regelkonfigurationen für die API-Operationen CreateTrainingJob und DescribeTrainingJob von SageMaker AI zu erstellen. Die sagemaker-debugger Client-Bibliothek bietet Tools zum Registrieren von Hooks und zum Zugreifen auf die Trainingsdaten über ihr Test-Feature sowie über ihre flexiblen und leistungsstarken API-Operationen. Als Machine-Learning-Frameworks werden TensorFlow, PyTorch, MXNet und XGBoost mit Python 3.6 und höher unterstützt.

Direkte Ressourcen zum Debugger und zu sagemaker-debugger API-Vorgängen finden Sie in den folgenden Blogbeiträgen:

Wenn Sie das SDK for Java verwenden, um SageMaker-Trainingsaufgaben durchzuführen und Debugger-APIs konfigurieren möchten, lesen Sie die folgenden Referenzen: