Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Instances GPU recommandées
Nous recommandons une instance de GPU pour la plupart des applications de deep learning. L'entraînement de nouveaux modèles est plus rapide sur une instance GPU que sur une instance CPU. Vous pouvez évoluer de façon sous-linéaire lorsque vous avez des instances à plusieurs GPU ou si vous utilisez une formation distribuée dans de nombreuses instances avec GPU.
Les types d'instances suivants prennent en charge le DLAMI. Pour plus d'informations sur les options de type d'instance GPU et leurs utilisations, consultez EC2
Note
La taille de votre modèle doit être un facteur de la sélection d’instance. Si votre modèle dépasse la RAM disponible d'une instance, sélectionnez un autre type d'instance avec suffisamment de mémoire pour votre application.
Les instances Amazon EC2 P3
disposent d'un maximum de 8 GPU NVIDIA Tesla V100. -
Les instances Amazon EC2 P4
disposent d'un maximum de 8 GPU NVIDIA Tesla A100. -
Les instances Amazon EC2 P5
disposent d'un maximum de 8 GPU NVIDIA Tesla H100. -
Les instances Amazon EC2 G3
disposent d'un maximum de 4 GPU NVIDIA Tesla M60. -
Les instances Amazon EC2 G4
disposent d'un maximum de 4 GPU NVIDIA T4. -
Les instances Amazon EC2 G5
disposent d'un maximum de 8 GPU NVIDIA A10G. -
Les instances Amazon EC2 G6
disposent d'un maximum de 8 GPU NVIDIA L4. -
Les instances Amazon EC2 G5g
sont équipées de processeurs Graviton2 basés sur ARM64 AWS .
Les instances DLAMI fournissent des outils pour surveiller et optimiser vos processus GPU. Pour plus d'informations sur la surveillance de vos processus GPU, consultezOptimisation et surveillance des GPU.
Pour des didacticiels spécifiques sur l'utilisation des instances G5g, consultezLe DLAMI ARM64.