Instance-Typen für integrierte Algorithmen. - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Instance-Typen für integrierte Algorithmen.

Für das Training und das Hosten von SageMaker Amazon-Algorithmen empfehlen wir die Verwendung der folgenden Amazon EC2-Instance-Typen:

  • ml.m5.xlarge, ml.m5.4xlarge und ml.m5.12xlarge

  • ml.c5.xlarge, ml.c5.2xlarge und ml.c5.8xlarge

  • ml.p3.xlarge, ml.p3.8xlarge und ml.p3.16xlarge

Die meisten SageMaker Amazon-Algorithmen wurden so entwickelt, dass sie GPU-Computing für Schulungen nutzen. Für die meisten Algorithmus-Trainings unterstützen wir P2-, P3-, G4dn- und G5-GPU-Instances. Trotz höherer Kosten pro Instance trainieren GPUs schneller und sind damit kostengünstiger. Ausnahmen sind in diesem Handbuch aufgeführt.

Größe und Art von Daten können einen großen Einfluss darauf haben, welche Hardwarekonfiguration am effektivsten ist. Wenn dasselbe Modell wiederholt trainiert wird, können mit ersten Tests über ein Spektrum an Instance-Typen hinweg Konfigurationen ermittelt werden, die langfristig kostengünstiger sind. Außerdem benötigen Algorithmen, die am effizientesten auf GPUs trainieren, möglicherweise keine GPUs für effiziente Inferenz. Experimentieren Sie, um die kostengünstigste Lösung zu finden. Verwenden Sie Amazon SageMaker Inference Recommender, um eine automatische Instance-Empfehlung zu erhalten oder benutzerdefinierte Auslastungstests durchzuführen.

Weitere Informationen zu SageMaker Hardwarespezifikationen finden Sie unter Amazon SageMaker ML-Instanztypen.