GPUemplois - AWS Batch

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

GPUemplois

GPUles jobs vous aident à exécuter des jobs qui utilisent ceux d'une instanceGPUs.

Les types d'instances EC2 GPU Amazon suivants sont pris en charge. Pour plus d'informations, consultez les instances Amazon EC2 G3, les instancesAmazon EC2 G4, les instancesAmazon EC2 G5, les instances Amazon EC2 P2, les instances Amazon EC2 P3,les instances AmazonP4d et les instances EC2 Amazon P5. EC2

Type d’instance

GPUs

GPUmémoire

vCPUs

Mémoire

Bande passante réseau

g3s.xlarge

1

8 GiO

4

30,5 GiB

10 Gbit/s

g3.4xlarge

1

8 GiO

16

122 GiB

Jusqu'à 10 Gbit/s

g3.8xlarge

2

16 GiO

32

244 GiB

10 Gbit/s

g3.16xlarge

4

32 GiO

64

488 GiB

25 Gb/s

g4dn.xlarge

1

16 GiO

4

16 GiO

Jusqu'à 25 Gbit/s

g4dn.2xlarge

1

16 GiO

8

32 GiO

Jusqu'à 25 Gbit/s

g4dn.4xlarge

1

16 GiO

16

64 Go

Jusqu'à 25 Gbit/s

g4dn.8xlarge

1

16 GiO

32

128 Gio

50 Gb/s

g4dn.12xlarge

4

64 Go

48

192 Go

50 Gb/s

g4dn.16xlarge

1

16 GiO

64

256 Gio

50 Gb/s

g5.xlarge

1

24 GiO

4

16 GiO

Jusqu'à 10 Gbit/s

g5.2xlarge

1

24 GiO

8

32 GiO

Jusqu'à 10 Gbit/s

g5.4xlarge

1

24 GiO

16

64 Go

Jusqu'à 25 Gbit/s

g5.8xlarge

1

24 GiO

32

128 Gio

25 Gb/s

g5.16xlarge

1

24 GiO

64

256 Gio

25 Gb/s

g5.12xlarge

4

96 GiB

48

192 Go

40 Gbit/s

g5.24xlarge

4

96 GiB

96

384 Go

50 Gb/s

g5.48xlarge

8

192 Go

192

768 Gio

100 Gbit/s

p2.xlarge

1

12 GiO

4

61 GiB

Élevée

p2.8xlarge

8

96 GiB

32

488 GiB

10 Gbit/s

p2.16xlarge

16

192 Go

64

732 GiB

20 Gbit/s

p3.2xlarge

1

16 GiO

8

61 GiB

Jusqu'à 10 Gbit/s

p3.8xlarge

4

64 Go

32

244 GiB

10 Gbit/s

p3.16xlarge

8

128 Gio

64

488 GiB

25 Gb/s

p3dn.24xlarge

8

256 Gio

96

768 Gio

100 Gbit/s

p4d.24xlarge

8

320 GiB

96

1152 GiB

4x100 Gbps

p5.48xlarge

8

640 GiB

192

2 Tio

32 x 100 Gbit/s

Note

Seuls les types d'instance qui prennent en charge une architecture x86_64 NVIDIA GPU et qui utilisent une architecture x86_64 sont pris en charge pour GPU les tâches dans. AWS Batch Par exemple, les familles G4adet G5ginstances ne sont pas prises en charge.

Le resourceRequirementsparamètre de définition de tâche indique le nombre de tâches GPUs à épingler sur le conteneur. Ce nombre de GPUs n'est disponible pour aucune autre tâche exécutée sur cette instance pendant la durée de cette tâche. Dans un environnement informatique, tous les types d'instances qui exécutent des GPU tâches doivent appartenir aux familles d'g5instances p2 p3 p4 p5 g3g3s,g4,,,, ou. Si cela n'est pas fait, une GPU tâche risque de rester bloquée dans le RUNNABLE statut.

Les tâches qui n'utilisent pas le GPUs peuvent être exécutées sur GPU des instances. Cependant, leur exécution sur les GPU instances peut être plus coûteuse que sur des GPU non-instances similaires. En fonction du vCPU, de la mémoire et du temps nécessaires, ces tâches non liées aux GPU tâches peuvent bloquer l'exécution des GPU tâches.