Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Empfohlene GPU-Instances
Für die meisten Deep-Learning-Zwecke empfehlen wir eine GPU-Instanz. Das Trainieren neuer Modelle ist auf einer GPU-Instanz schneller als auf einer CPU-Instanz. Sie können sublinear skalieren, wenn Sie über mehrere GPU-Instances verfügen oder wenn Sie eine Schulung für viele Instances mit GPUs verwenden.
Die folgenden Instance-Typen unterstützen das DLAMI. Informationen zu den Optionen für GPU-Instanztypen und deren Verwendung finden Sie unter und wählen Sie Accelerated Computing aus.
Anmerkung
Bei der Auswahl einer Instance sollte die Größe Ihres Modells berücksichtigt werden. Wenn Ihr Modell den verfügbaren Arbeitsspeicher einer Instance überschreitet, wählen Sie für Ihre Anwendung einen anderen Instance-Typ mit ausreichend Speicher.
Amazon EC2 P3-Instances
verfügen über bis zu 8 NVIDIA Tesla V100-GPUs. -
Amazon EC2 P4-Instances
verfügen über bis zu 8 NVIDIA Tesla A100-GPUs. -
Amazon EC2 P5-Instances
verfügen über bis zu 8 NVIDIA Tesla H100-GPUs. -
Amazon EC2 G3-Instances
verfügen über bis zu 4 NVIDIA Tesla M60-GPUs. -
Amazon EC2 G4-Instances haben bis zu 4
NVIDIA T4-GPUs. -
Amazon EC2 G5-Instances
verfügen über bis zu 8 NVIDIA A10G-GPUs. -
Amazon EC2 G6-Instances
haben bis zu 8 NVIDIA L4-GPUs. -
Amazon EC2 G5g-Instances
verfügen über AWS ARM64-basierte Graviton2-Prozessoren.
DLAMI-Instanzen bieten Tools zur Überwachung und Optimierung Ihrer GPU-Prozesse. Weitere Informationen zur Überwachung Ihrer GPU-Prozesse finden Sie unter. GPU-Überwachung und -Optimierung
Spezifische Tutorials zur Arbeit mit G5G-Instances finden Sie unterDas ARM64 DLAMI.