Instance-Typen für integrierte Algorithmen. - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Instance-Typen für integrierte Algorithmen.

Für das Training und Hosten von Amazon- SageMaker Algorithmen empfehlen wir die Verwendung der folgenden Amazon EC2-Instance-Typen:

  • ml.m5.xlarge, ml.m5.4xlarge und ml.m5.12xlarge

  • ml.c5.xlarge, ml.c5.2xlarge und ml.c5.8xlarge

  • ml.p3.xlarge, ml.p3.8xlarge und ml.p3.16xlarge

Die meisten Amazon- SageMaker Algorithmen wurden entwickelt, um GPU-Computing für das Training zu nutzen. Für die meisten Algorithmus-Schulungen unterstützen wir P2-, P3-, G4dn- und G5-GPU-Instances. Trotz höherer Kosten pro Instance trainieren GPUs schneller und sind damit kostengünstiger. Ausnahmen sind in diesem Handbuch aufgeführt.

Größe und Art von Daten können einen großen Einfluss darauf haben, welche Hardwarekonfiguration am effektivsten ist. Wenn dasselbe Modell wiederholt geschult wird, können mit ersten Tests über ein Spektrum an Instance-Typen hinweg Konfigurationen ermittelt werden, die langfristig kostengünstiger sind. Außerdem benötigen Algorithmen, die am effizientesten auf GPUs schulen, möglicherweise keine GPUs für effiziente Inferenz. Experimentieren Sie, um die kostengünstigste Lösung zu finden. Um eine automatische Instance-Empfehlung zu erhalten oder benutzerdefinierte Lasttests durchzuführen, verwenden Sie Amazon SageMaker Inference Recommender .

Weitere Informationen zu SageMaker Hardwarespezifikationen finden Sie unter Amazon SageMaker ML-Instance-Typen.