Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Instance-Typen für integrierte Algorithmen.
Für das Training und das Hosten von SageMaker Amazon-Algorithmen empfehlen wir die Verwendung der folgenden Amazon EC2 EC2-Instance-Typen:
-
ml.m5.xlarge, ml.m5.4xlarge und ml.m5.12xlarge
-
ml.c5.xlarge, ml.c5,2xlarge und ml.c5,8xlarge
-
ml.p3.xlarge, ml.p3.8xlarge und ml.p3.16xlarge
Die meisten SageMaker Amazon-Algorithmen wurden so entwickelt, dass sie GPU-Computing für das Training nutzen. Für die meisten Algorithmus-Trainings unterstützen wir P2-, P3-, G4dn- und G5-GPU-Instances. Trotz höherer Kosten pro Instance schulen GPUs schneller und sind damit kostengünstiger. Ausnahmen werden in diesem Handbuch vermerkt.
Größe und Art von Daten können einen großen Einfluss darauf haben, welche Hardware-Konfiguration am effektivsten ist. Wenn dasselbe Modell regelmäßig trainiert wird, können durch erste Tests für ein Spektrum von Instance-Typen Konfigurationen entdeckt werden, die auf lange Sicht kostengünstiger sind. Außerdem benötigen Algorithmen, die am effizientesten auf GPUs schulen, möglicherweise keine GPUs für effiziente Inferenz. Experimentieren Sie, um die kostengünstigste Lösung zu finden. Verwenden Sie Amazon SageMaker Inference Recommender, um eine automatische Instance-Empfehlung zu erhalten oder benutzerdefinierte Lasttests durchzuführen.
Weitere Informationen zu SageMaker Hardwarespezifikationen finden Sie unter Amazon SageMaker ML Instance Types