Das ARM64 DLAMI - Deep-Learning-AMI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Das ARM64 DLAMI

AWS ARM64-GPU-DLAMIs wurden entwickelt, um eine hohe Leistung und Kosteneffizienz für Deep-Learning-Workloads zu bieten. Insbesondere der G5G-Instanztyp verfügt über den ARM64-basierten AWS Graviton2-Prozessor, der von Grund auf neu entwickelt AWS und dafür optimiert wurde, wie Kunden ihre Workloads in der Cloud ausführen. AWS ARM64-GPU-DLAMIs sind mit Docker, NVIDIA Docker, NVIDIA-Treiber, CUDA, cuDNN, NCCL sowie beliebten Frameworks für maschinelles Lernen wie und vorkonfiguriert. TensorFlow PyTorch

Mit dem Instance-Typ G5G können Sie die Preis- und Leistungsvorteile von Graviton2 nutzen, um GPU-beschleunigte Deep-Learning-Modelle zu deutlich geringeren Kosten im Vergleich zu x86-basierten Instances mit GPU-Beschleunigung bereitzustellen.

Wählen Sie ein ARM64 DLAMI

Starten Sie eine G5g-Instance mit dem ARM64 DLAMI Ihrer Wahl.

step-by-step Anweisungen zum Starten eines DLAMI finden Sie unter Starten und Konfigurieren eines DLAMI.

Eine Liste der neuesten ARM64-DLAMIs finden Sie in den Versionshinweisen für DLAMI.

Erste Schritte

Die folgenden Themen zeigen Ihnen, wie Sie mit der Verwendung des ARM64-DLAMI beginnen können.