GPUsIn einer ECS Amazon-Aufgabendefinition angeben - Amazon Elastic Container Service

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

GPUsIn einer ECS Amazon-Aufgabendefinition angeben

Um die GPUs On-a-Container-Instance und die GPU Docker-Runtime zu verwenden, stellen Sie sicher, dass Sie in der Aufgabendefinition die Anzahl angeben, die GPUs Ihr Container benötigt. Wenn Container, die unterstützt GPUs werden, platziert werden, heftet der ECS Amazon-Containeragent die gewünschte Anzahl GPUs an physischen Behältern an den entsprechenden Container. Die Anzahl der für alle Container in einer Aufgabe GPUs reservierten Container darf die Anzahl der verfügbaren Container auf der Container-Instance, GPUs auf der die Aufgabe gestartet wurde, nicht überschreiten. Weitere Informationen finden Sie unter Erstellen einer ECS Amazon-Aufgabendefinition mithilfe der Konsole.

Wichtig

Wenn Ihre GPU Anforderungen nicht in der Aufgabendefinition angegeben sind, verwendet die Aufgabe die standardmäßige Docker-Laufzeit.

Im Folgenden wird das JSON Format für die GPU Anforderungen in einer Aufgabendefinition dargestellt:

{ "containerDefinitions": [ { ... "resourceRequirements" : [ { "type" : "GPU", "value" : "2" } ], }, ... }

Das folgende Beispiel zeigt die Syntax für einen Docker-Container, der eine GPU Anforderung spezifiziert. Dieser Container verwendet zweiGPUs, führt das nvidia-smi Hilfsprogramm aus und wird dann beendet.

{ "containerDefinitions": [ { "memory": 80, "essential": true, "name": "gpu", "image": "nvidia/cuda:11.0.3-base", "resourceRequirements": [ { "type":"GPU", "value": "2" } ], "command": [ "sh", "-c", "nvidia-smi" ], "cpu": 100 } ], "family": "example-ecs-gpu" }