GPU-Aufträge - AWS Batch

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

GPU-Aufträge

GPU-Jobs helfen Ihnen dabei, Jobs auszuführen, die die GPUs einer Instanz verwenden.

Die folgenden GPU-basierten Instance-Typen von Amazon EC2 werden unterstützt. Weitere Informationen finden Sie unter Amazon EC2 G3-Instances, Amazon EC2 G4-Instances, Amazon EC2 G5-Instances, Amazon EC2 P2-Instances, Amazon EC2 P3-Instances, Amazon EC2 P4d-Instances und Amazon EC2 P5-Instances.

Instance-Typ

GPUs

GPU-Arbeitsspeicher

vCPUs

Arbeitsspeicher

Netzwerkbandbreite

g3s.xgroß

1

8 GiB

4

30,5 GiB

10 Gbit/s

g3.4xgroß

1

8 GiB

16

122 GiB

Bis zu 10 Gbit/s

g3.8xgroß

2

16 GiB

32

244 GiB

10 Gbit/s

g3.16xgroß

4

32 GiB

64

488 GiB

25 Gbit/s

g4dn.xgroß

1

16 GiB

4

16 GiB

Bis zu 25 Gbit/s

g4dn.2xgroß

1

16 GiB

8

32 GiB

Bis zu 25 Gbit/s

g4dn.4xgroß

1

16 GiB

16

64 GiB

Bis zu 25 Gbit/s

g4dn.8xgroß

1

16 GiB

32

128 GiB

50 Gbit/s

g4dn.12xgroß

4

64 GiB

48

192 GiB

50 Gbit/s

g4dn.16xgroß

1

16 GiB

64

256 GiB

50 Gbit/s

g5.xgroß

1

24 GiB

4

16 GiB

Bis zu 10 Gbit/s

g5.2xlarge

1

24 GiB

8

32 GiB

Bis zu 10 Gbit/s

g5.4xlarge

1

24 GiB

16

64 GiB

Bis zu 25 Gbit/s

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gbit/s

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gbit/s

g5.12xlarge

4

96 GiB

48

192 GiB

40 GBit/s

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gbit/s

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gbit/s

p2.xgroß

1

12 GiB

4

61 GiB

Hoch

p2.8xgroß

8

96 GiB

32

488 GiB

10 Gbit/s

p2.16xgroß

16

192 GiB

64

732 GiB

20 Gbit/s

p3.2xgroß

1

16 GiB

8

61 GiB

Bis zu 10 Gbit/s

p3.8xgroß

4

64 GiB

32

244 GiB

10 Gbit/s

p3.16xgroß

8

128 GiB

64

488 GiB

25 Gbit/s

p3dn.24xgroß

8

256 GiB

96

768 GiB

100 Gbit/s

p4d.24xgroß

8

320 GiB

96

1152 GiB

4 x 100 Gbit/s

p5.48xlarge

8

640 GiB

192

2 TiB

32 x 100 Gbit/s

Anmerkung

Nur Instance-Typen, die eine NVIDIA-GPU unterstützen und eine x86_64-Architektur verwenden, werden für GPU-Jobs in unterstützt. AWS Batch Beispielsweise werden die G5gInstanzfamilien G4adund nicht unterstützt.

Der ResourceRequirements-Parameter für die Jobdefinition gibt die Anzahl der GPUs an, die an den Container angeheftet werden sollen. Diese Anzahl von GPUs ist für die Dauer dieses Auftrags für keinen anderen Job verfügbar, der auf dieser Instanz ausgeführt wird. Alle Instance-Typen in einer Rechenumgebung, die GPU-Jobs ausführen, müssen zu den g5 Instance-Familien p2 p3p4,p5,g3,g3s,g4,, oder gehören. Geschieht dies nicht, kann es sein, dass ein GPU-Job im RUNNABLE Status hängen bleibt.

Jobs, die die GPUs nicht verwenden, können auf GPU-Instanzen ausgeführt werden. Ihre Ausführung auf GPU-Instanzen kann jedoch mehr kosten als auf ähnlichen Nicht-GPU-Instanzen. Abhängig von der spezifischen vCPU, dem Arbeitsspeicher und der benötigten Zeit können diese Nicht-GPU-Jobs die Ausführung von GPU-Jobs blockieren.