Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
AWS ARM64 Deep-Learning-Base-GPU-AMI (Ubuntu 22.04)
Hilfe zu den ersten Schritten finden Sie unterErste Schritte mit DLAMI.
AMI-Namensformat
Deep Learning ARM64 Base OSS Nvidia-Treiber-GPU-AMI (Ubuntu 22.04) $ {YYYY-MM-DD}
EC2 Unterstützte Instanzen
G5g, P6e- GB2 00 (CUDA>=12.8 wird auf P6e- 00 unterstützt) GB2
Das AMI umfasst Folgendes:
Unterstützter AWS Service: Amazon EC2
Betriebssystem: Ubuntu 22.04
Rechenarchitektur: ARM64
Die neueste verfügbare Version ist für die folgenden Pakete installiert:
Linux-Kernel: 6. 8
FSx Glanz
Docker
AWS CLI v2 bei/usr/bin/aws
NVIDIA DCGM
Nvidia-Container-Toolkit:
Versionsbefehl: -V nvidia-container-cli
NVIDIA-Docker2:
Versionsbefehl: nvidia-docker version
NVIDIA-Treiber: 570.172.08
NVIDIA CUDA 12.4, 12.5, 12.6, 12.8 Stapel:
CUDA-, NCCL - und cuDDN-Installationsverzeichnisse:/-xx.x/ usr/local/cuda
Beispiel:/-12.8/ usr/local/cuda-12.8/ , /usr/local/cuda
Kompilierte NCCL-Version:
Für das CUDA-Verzeichnis von 12.4, kompilierte NCCL-Version 2.22.3+. 4 CUDA12
Für das CUDA-Verzeichnis 12.5, kompilierte NCCL-Version 2.22.3+ .5 CUDA12
Für das CUDA-Verzeichnis von 12.6, kompilierte NCCL-Version 2.24.3+ .6 CUDA12
Für das CUDA-Verzeichnis von 12.8, kompilierte NCCL-Version 2.27.5+. CUDA12
Standard-CUDA: 12.8
PATH//usr/local/cudazeigt auf CUDA 12.8
Die folgenden Umgebungsvariablen wurden aktualisiert:
LD_LIBRARY_PATH soll/64 haben usr/local/cuda-12.8/lib:/usr/local/cuda-12.8/lib64:/usr/local/cuda-12.8:/usr/local/cuda-12.8/targets/sbsa-linux/lib:/usr/local/cuda-12.8/nvvm/lib64:/usr/local/cuda-12.8/extras/CUPTI/lib
PATH soll//haben usr/local/cuda-12.8/bin/:/usr/local/cuda-12.8/include
Für jede andere CUDA-Version aktualisieren Sie LD_LIBRARY_PATH bitte entsprechend.
EFA-Installationsprogramm: 1.42.0
Nvidia GDRCopy: 2.5.1
AWS Das OFI NCCL-Plugin wird mit dem EFA-Installationsprogramm geliefert
Die Pfade/opt/amazon/ofi-nccl/lib/aarch64-linux-gnu and /opt/amazon/ofi-nccl/efawerden zu LD_LIBRARY_PATH hinzugefügt.
AWS CLI v2 bei//2 und v1 bei/usr/local/bin/aws AWS CLI usr/bin/aws
EBS-Volumetyp: gp3
Python:/usr/bin/python3.10
AMI-ID mit SSM-Parameter abfragen (Beispiel Region ist us-east-1):
SSM_PARAMETER=base-oss-nvidia-driver-gpu-ubuntu-22.04/latest/ami-id \ aws ssm get-parameter --region
us-east-1
\ --name /aws/service/deeplearning/ami/arm64/$SSM_PARAMETER \ --query "Parameter.Value" \ --output textAMI-ID abfragen mit AWSCLI (Beispiel Region ist us-east-1):
aws ec2 describe-images --region
us-east-1
\ --owners amazon --filters 'Name=name,Values=Deep Learning ARM64 Base OSS Nvidia Driver GPU AMI (Ubuntu 22.04) ????????' 'Name=state,Values=available' \ --query 'reverse(sort_by(Images, &CreationDate))[:1].ImageId' \ --output text
P6-E 00-Instanzen GB2
P6e- GB2 00-Instances enthalten 17 Netzwerkschnittstellenkarten und können mit dem folgenden Befehl gestartet werden: AWS CLI
aws ec2 run-instances --region $REGION \ --instance-type $INSTANCETYPE \ --image-id $AMI --key-name $KEYNAME \ --iam-instance-profile "Name=dlami-builder" \ --tag-specifications "ResourceType=instance,Tags=[{Key=Name,Value=$TAG}]" \ --network-interfaces \ "NetworkCardIndex=0,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=interface" \ "NetworkCardIndex=1,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=2,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=3,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=4,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=5,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=6,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=7,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=8,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=9,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=10,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=11,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=12,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=13,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=14,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=15,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only" \ "NetworkCardIndex=16,DeviceIndex=0,Groups=$SG,SubnetId=$SUBNET,InterfaceType=efa-only"
Hinweise
NVIDIA Container Toolkit 1.17.4
In der Container Toolkit-Version 1.17.4 ist das Mounten von CUDA-kompatiblen Bibliotheken jetzt deaktiviert. Um die Kompatibilität mit mehreren CUDA-Versionen in Container-Workflows sicherzustellen, stellen Sie bitte sicher, dass Sie Ihren LD_LIBRARY_PATH so aktualisieren, dass er Ihre CUDA-Kompatibilitätsbibliotheken enthält, wie im Tutorial Wenn Sie eine CUDA-Kompatibilitätsschicht verwenden gezeigt.
Unterstützung mehrerer ENI
Ubuntu 22.04 richtet beim ersten Start automatisch das Quell-Routing auf mehreren NICs über Cloud-Init ein und konfiguriert es. Wenn Ihr Workflow attaching/detaching Ihre ENIs beinhaltet, während eine Instanz gestoppt ist, muss den Cloud-Init-Benutzerdaten eine zusätzliche Konfiguration hinzugefügt werden, um die korrekte Konfiguration der NICs während dieser Ereignisse sicherzustellen. Ein Beispiel für die Cloud-Konfiguration finden Sie unten.
#cloud-config # apply network config on every boot and hotplug event updates: network: when: ['boot', 'hotplug']
Unterstützungspolitik
Diese AMIs Komponenten dieses AMI, wie CUDA-Versionen, können auf der Grundlage von Framework-Supportrichtlinien oder zur Optimierung der Leistung für Deep-Learning-Container
Kernel
Die Kernel-Version wird mit dem folgenden Befehl gepinnt:
echo linux-aws hold | sudo dpkg —set-selections echo linux-headers-aws hold | sudo dpkg —set-selections echo linux-image-aws hold | sudo dpkg —set-selections
Wir empfehlen Benutzern, die Aktualisierung ihrer Kernel-Version zu vermeiden (es sei denn, es liegt ein Sicherheitspatch vor), um die Kompatibilität mit den installierten Treibern und Paketversionen sicherzustellen. Wenn Benutzer dennoch ein Update durchführen möchten, können sie die folgenden Befehle ausführen, um ihre Kernelversionen zu entsperren:
echo linux-aws install | sudo dpkg -set-selections echo linux-headers-aws install | sudo dpkg -set-selections echo linux-image-aws install | sudo dpkg -set-selections
Für jede neue Version von DLAMI wird der neueste verfügbare kompatible Kernel verwendet.
Veröffentlichungsdatum: 2025-07-22
AMI-Name: Deep Learning ARM64 Base OSS Nvidia-Treiber GPU AMI (Ubuntu 22.04) 20250722
Aktualisiert
Datum der Veröffentlichung: 2025-07-04
AMI-Name: Deep Learning ARM64 Base OSS Nvidia-Treiber GPU AMI (Ubuntu 22.04) 20250704
Aktualisiert
Unterstützung für EC2 Instanz P6e- 00 hinzugefügt. GB2 Bitte beachten Sie, dass CUDA>=12.8 auf P6e- 00 unterstützt wird GB2
Fügen Sie EFA 1.42.0 hinzu
Der Nvidia-Treiber wurde von Version 570.133.20 auf 570.158.01 aktualisiert
Der CUDA 12.8-Stack wurde mit NCCL 2.27.5 aktualisiert
Veröffentlichungsdatum: 24.04.2025
AMI-Name: Deep Learning ARM64 Base OSS Nvidia-Treiber GPU AMI (Ubuntu 22.04) 20250424
Aktualisiert
Der CUDA 12.8-Stack wurde mit NCCL 2.26.2 aktualisiert
Standard-CUDA wurde von 12.6 auf 12.8 aktualisiert
CUDA 12.3 wurde entfernt
Datum der Veröffentlichung: 2025-03-03
AMI-Name: Deep Learning ARM64 Base OSS Nvidia-Treiber GPU AMI (Ubuntu 22.04) 20250303
Aktualisiert
Nvidia-Treiber von 550.144.03 bis 570.86.15
Der Standard-CUDA wurde von .1 auf 6 geändert. CUDA12 CUDA12
Hinzugefügt
CUDA-Verzeichnis von 12.4 mit kompilierter NCCL Version CUDA12 2.22.3+ .4 und cuDNN 9.7.1.26
CUDA-Verzeichnis von 12.5 mit kompilierter NCCL-Version CUDA12 2.22.3+ .5 und cuDNN 9.7.1.26
CUDA-Verzeichnis von 12.6 mit kompilierter NCCL-Version CUDA12 2.24.3+ .6 und cuDNN 9.7.1.26
CUDA-Verzeichnis von 12.8 mit kompilierter NCCL-Version CUDA12 2.25.1+ .8 und cuDNN 9.7.1.26
Entfernt
CUDA-Verzeichnis von 12.1 und 12.2
Datum der Veröffentlichung: 2025-02-17
AMI-Name: Deep Learning ARM64 Base OSS Nvidia-Treiber GPU AMI (Ubuntu 22.04) 20250214
Aktualisiert
Das NVIDIA Container Toolkit wurde von Version 1.17.3 auf Version 1.17.4 aktualisiert
In der Container Toolkit-Version 1.17.4 ist das Mounten von CUDA-kompatiblen Bibliotheken jetzt deaktiviert. Um die Kompatibilität mit mehreren CUDA-Versionen in Container-Workflows sicherzustellen, stellen Sie bitte sicher, dass Sie Ihren LD_LIBRARY_PATH so aktualisieren, dass er Ihre CUDA-Kompatibilitätsbibliotheken enthält, wie im Tutorial Wenn Sie eine CUDA-Kompatibilitätsschicht verwenden gezeigt.
Entfernt
Datum der Veröffentlichung: 17.01.2025
AMI-Name: Deep Learning ARM64 Base OSS Nvidia-Treiber GPU AMI (Ubuntu 22.04) 20250117
Aktualisiert
Veröffentlichungsdatum: 2024-10-23
AMI-Name: Deep Learning ARM64 Base OSS Nvidia-Treiber GPU AMI (Ubuntu 22.04) 20241023
Aktualisiert
Datum der Veröffentlichung: 2024-06-06
AMI-Name: Deep Learning ARM64 Base OSS Nvidia-Treiber GPU AMI (Ubuntu 22.04) 20240606
Aktualisiert
Die Nvidia-Treiberversion wurde von 535.161.08 auf 535.183.01 aktualisiert
Datum der Veröffentlichung: 2024-05-15
AMI-Name: Deep Learning ARM64 Base OSS Nvidia-Treiber GPU AMI (Ubuntu 22.04) 20240514
Hinzugefügt
Erste Version des Deep Learning ARM64 Base OSS DLAMI für Ubuntu 22.04