Unterstützte Frameworks und Algorithmen - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Unterstützte Frameworks und Algorithmen

Die folgende Tabelle zeigt die Frameworks und Algorithmen für maschinelles Lernen von SageMaker, die von Debugger unterstützt werden.

SageMaker-supported frameworks and algorithms Debugging output tensors

TensorFlow

AWSTensorFlow Deep-Learning-Container 1.15.4 oder höher

PyTorch

AWSPyTorch Deep Learning-Container 1.5.0 oder höher

MXNet

AWSMXNet Deep Learning-Container 1.6.0 oder höher

XGBoost

1.0-1, 1.2-1, 1.3-1

Generischer SageMaker-Schätzer

Benutzerdefinierte Trainingscontainer (verfügbar für TensorFlow, PyTorch, MXNet und XGBoost mit manueller Hook-Registrierung)

  • Ausgabetensoren debuggen — Verfolgen und debuggen Sie Modellparameter wie Gewichte, Gradienten, Verzerrungen und Skalarwerte Ihres Trainingsjobs. Verfügbare Deep Learning-Frameworks sind Apache MXNet, TensorFlow, PyTorch und XGBoost.

    Wichtig

    Für das TensorFlow-Framework mit Keras lehnt SageMaker Debugger die Unterstützung für Debugging-Modelle ab, die mit den tf.keras Modulen von TensorFlow 2.6 und höher erstellt wurden. Dies ist auf wichtige Änderungen zurückzuführen, die in den Versionshinweisen zu TensorFlow 2.6.0 angekündigt wurden. Eine Anleitung zur Aktualisierung Ihres Trainingsskripts finden Sie unter Passen Sie Ihr TensorFlow-Trainingsskript an.

    Wichtig

    Ab PyTorch v1.12.0 und höher verbietet SageMaker Debugger die Unterstützung von Debugging-Modellen ohne Codeänderung.

    Dies ist auf grundlegende Änderungen zurückzuführen, die dazu führen, dass SageMaker Debugger die Funktionalität beeinträchtigt. torch.jit Anweisungen zum Aktualisieren Ihres Training-Scripts finden Sie unter Passen Sie Ihr PyTorch-Trainingsskript an.

Wenn das Framework oder der Algorithmus, den Sie trainieren und debuggen möchten, nicht in der Tabelle aufgeführt ist, besuchen Sie das AWSDiskussionsforum und hinterlassen Sie Feedback zu SageMaker Debugger.

AWS-Regionen

Amazon SageMaker Debugger ist in allen Regionen möglich, in denen Amazon SageMaker angeboten wird, außer in der folgenden Region.

  • Asien-Pazifik (Jakarta): ap-southeast-3

Um herauszufinden, ob Amazon SageMaker in Ihrer AWS-Region in Betrieb ist, sehen Sie sich AWS Regionale Dienste an.

Verwenden Sie den Debugger mit benutzerdefinierten Trainingscontainern

Bringen Sie Ihre Schulungscontainer zu SageMaker und gewinnen Sie mit Debugger Einblicke in Ihre Trainingsjobs. Maximieren Sie Ihre Arbeitseffizienz, indem Sie Ihr Modell auf Amazon EC2-Instances mithilfe der Überwachungs- und Debugging-Funktionen optimieren.

Weitere Informationen dazu, wie Sie Ihren Trainingscontainer mit der sagemaker-debugger Client-Bibliothek erstellen, in die Amazon Elastic Container Registry (Amazon ECR) übertragen und überwachen und debuggen können, finden Sie unter Verwenden Sie den Debugger mit benutzerdefinierten Trainingscontainern.

Debugger Open-Source-GitHub-Repositorien

Debugger-APIs werden über das SageMaker Python SDK bereitgestellt und sind darauf ausgelegt, Debugger-Hook- und Regelkonfigurationen für die API-Operationen CreateTrainingJob und DescribeTrainingJob von SageMaker zu erstellen. Die sagemaker-debugger Client-Bibliothek bietet Tools zum Registrieren von Hooks und zum Zugreifen auf die Trainingsdaten über ihr Test-Feature sowie über ihre flexiblen und leistungsstarken API-Operationen. Als Machine Learning-Frameworks werden TensorFlow, PyTorch, MXNet und XGBoost mit Python 3.6 und höher unterstützt.

Direkte Ressourcen zum Debugger und zu sagemaker-debugger API-Vorgängen finden Sie in den folgenden Blogbeiträgen:

Wenn Sie das SDK for Java verwenden, um SageMaker-Schulungsaufgaben durchzuführen und Debugger-APIs konfigurieren möchten, lesen Sie die folgenden Referenzen: