GPU工作 - AWS Batch

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

GPU工作

GPU工作可協助您執行使用執行個體的工作GPUs。

支EC2GPU援下列 Amazon 執行個體類型。如需詳細資訊,請參閱 Amazon EC2 G3 執行個體Amazon EC2 G4 執行個體、Amazon EC2 G5 執行個體、Amazon EC2 P2 執行個體、Amazon EC2 P3 執行個體、Amazon P EC2 4d 執行個體和 Amazon P5 執行個體。EC2

執行個體類型

GPUs

GPU記憶

vCPUs

記憶體

網路頻寬

g3s.xlarge

1

8 GiB

4

30.5 GiB

10 Gbps

g3.4xlarge

1

8 GiB

16

122 GiB

最高 10 Gbps

g3.8xlarge

2

16 GiB

32

244 GiB

10 Gbps

g3.16xlarge

4

32 GiB

64

488 GiB

25 Gbps

g4dn.xlarge

1

16 GiB

4

16 GiB

最高 25 Gbps

g4dn.2xlarge

1

16 GiB

8

32 GiB

最高 25 Gbps

g4dn.4xlarge

1

16 GiB

16

64 GiB

最高 25 Gbps

g4dn.8xlarge

1

16 GiB

32

128 GiB

50 Gbps

g4dn.12xlarge

4

64 GiB

48

192 GiB

50 Gbps

g4dn.16xlarge

1

16 GiB

64

256 GiB

50 Gbps

g5.xlarge

1

24 GiB

4

16 GiB

最高 10 Gbps

g5.2xlarge

1

24 GiB

8

32 GiB

最高 10 Gbps

g5.4xlarge

1

24 GiB

16

64 GiB

最高 25 Gbps

g5.8xlarge

1

24 GiB

32

128 GiB

25 Gbps

g5.16xlarge

1

24 GiB

64

256 GiB

25 Gbps

g5.12xlarge

4

96 GiB

48

192 GiB

40Gbps

g5.24xlarge

4

96 GiB

96

384 GiB

50 Gbps

g5.48xlarge

8

192 GiB

192

768 GiB

100 Gbps

p2.xlarge

1

12 GiB

4

61 GiB

p2.8xlarge

8

96 GiB

32

488 GiB

10 Gbps

p2.16xlarge

16

192 GiB

64

732 GiB

20 Gbps

p3.2xlarge

1

16 GiB

8

61 GiB

最高 10 Gbps

p3.8xlarge

4

64 GiB

32

244 GiB

10 Gbps

p3.16xlarge

8

128 GiB

64

488 GiB

25 Gbps

p3dn.24xlarge

8

256 GiB

96

768 GiB

100 Gbps

p4d.24xlarge

8

320 GiB

96

1152 GiB

4x100 Gbps

p5.48xlarge

8

640 GiB

192

2 TiB

英鎊

注意

中的作業僅支援支援NVIDIAGPU並使用 x86_64 架構的執行個體類型。GPU AWS Batch例如,不支援G4adG5g執行個體族群。

工作定義的resourceRequirements參數會指定要釘選GPUs至容器的數目。在該工作期間,在該執行個體上執行的任何其他工作都無法使用此數目。GPUs運算環境中執行GPU作業的所有執行個體類型都必須來自p2p3p4、、p5g3g3sg4、或g5執行個體系列。如果沒有完成,則GPU工作可能會卡在狀RUNNABLE態中。

不使用的作業GPUs可以在執行GPU個體上執行。不過,在執行個體上執行的成本可能會比在類似的非GPU執行GPU個體上還要高。視特定 v CPU、記憶體和所需時間而定,這些非GPU工作可能會阻止GPU工作執行。