Amazon Elastic Compute Cloud
Guide de l'utilisateur pour les instances Linux

Instances à calcul accéléré Linux

Si vous avez besoin de capacités de traitement parallèle élevées, utilisez des instances à calcul accéléré qui vous donneront accès aux accélérateurs matériels tels que les unités GPU (Graphics Processing Units) ou FPGA (Field Programmable Gate Arrays). Les instances à calcul accéléré offrent de meilleures capacités de traitement en parallèle afin d'accélérer les charges de travail qui nécessitent beaucoup de ressources système.

Les instances GPU donnent accès aux unités GPU NVIDIA avec des milliers de cœurs de calcul. Vous pouvez utiliser des instances à calcul accéléré GPU pour accélérer de nombreuses applications scientifiques, d'ingénierie et de rendu en tirant parti de l'architecture CUDA ou d'infrastructures de calcul parallèle OpenCL (Open Computing Language). Vous pouvez également les utiliser pour des applications graphiques, notamment les jeux en streaming, les applications 3D en streaming, et d'autres charges de travail graphiques.

Les instances FPGA donnent accès à d'importants FPGA avec des millions de cellules logiques de système parallèle. Vous pouvez utiliser des instances de calcul accéléré FPGA pour accélérer des charges de travail comme l'analyse du génome, l'analyse financière, le traitement vidéo en temps réel, l'analyse du Big Data et les charges de travail de sécurité en tirant parti des accélérations matérielles personnalisées. Vous pouvez développer ces accélérations à l'aide des langages de description de matériel comme Verilog ou VHDL ou en utilisant des langages de niveau supérieur comme les infrastructures de calcul parallèle OpenCL (Open Computing Language). Vous pouvez également développer votre propre code d'accélération matérielle ou acheter des accélérations matérielles via AWS Marketplace.

Important

Les instances FPGA ne prennent pas en charge Microsoft Windows.

Vous pouvez regrouper des instances à calcul accélérées dans un groupe de placement du cluster. Les groupes de placement du cluster offrent une faible latence et une connectivité à bande passante élevée entre les instances au sein d'une zone de disponibilité unique. Pour plus d'informations, consultez Groupes de placement.

Pour plus d'informations sur les instances Windows à calcul accéléré, consultez Instances Windows à calcul accéléré dans le Amazon EC2 Guide de l'utilisateur pour les instances Windows.

Familles d'instances à calcul accéléré

Les familles d'instances à calcul accéléré utilisent des accélérateurs matériels ou des coprocesseurs pour exécuter certaines fonctions, telles que le calcul en virgule flottante, le traitement graphique ou la correspondance de modèles de données, plus efficacement qu'il n'est possible avec les logiciels exécutés sur processeurs. Les familles d'instances à calcul accéléré suivantes vous permettent de vous lancer dans Amazon EC2.

Instances F1

Les instances F1 utilisent les FPGA VU9P Xilinx UltraScale+ et sont conçues pour accélérer des algorithmes de calculs intensifs, comme les opérations de flux de données ou hautement parallèles non appropriées aux UC à usage général. Chaque FPGA dans une instance F1 contient environ 2,5 millions d'éléments logiques et approximativement 6 800 moteurs DSP (Digital Signal Processing) avec 64 Gio de mémoire protégée ECC DDR locale, connectés à l'instance par une connexion PCIe Gen3 x16 dédiée. Les instances F1 fournissent des volumes SSD NVMe locaux.

Les développeurs peuvent utiliser l'AMI des développeurs de FPGA et le kit de développement matériel AWS pour créer des accélérations matérielles personnalisées à utiliser sur des instances F1. L'AMI des développeurs de FPGA comprend des outils de développement pour le développement entier de FPGA dans le cloud. A l'aide de ces outils, les développeurs peuvent créer et partager des images AFI (Amazon FPGA Images) qui peuvent être chargées sur le FPGA d'une instance F1.

Pour plus d'informations, consultez Instances F1 Amazon EC2.

Instances P3

Les instances P3 utilisent des GPU NVIDIA Tesla V100 et sont conçues pour le calcul GPU à usage général à l'aide des modèles de programmation CUDA ou OpenCL, ou via une infrastructure d'apprentissage automatique. Les instances P3 offrent une mise en réseau à bande passante élevée, de hautes capacités de calcul en virgule flottante de mi-précision, de simple précision et double précision, ainsi que jusqu'à 32 Gio de mémoire par GPU. Cela en fait un outil idéal dans les domaines du Deep Learning, de la mécanique des fluides numérique, des calculs financiers, de l'analyse sismique, de la modélisation moléculaire, de la génomique, du rendu et d'autres charges de travail de calcul GPU côté serveur. Les GPU Tesla V100 ne prennent pas en charge le mode graphique. Pour plus d'informations, consultez Instances P3 Amazon EC2.

Les instances P3 prennent en charge les transferts entre homologues NVIDIA NVLink.

Pour obtenir des informations topologiques sur le système, exécutez la commande suivante :

nvidia-smi topo -m

Pour plus d'informations, consultez NVIDIA NVLink.

Instances P2

Les instances P2 utilisent des GPU NVIDIA Tesla K80 et sont conçues pour le calcul GPU à usage général à l'aide des modèles de programmation CUDA ou OpenCL. Les instances P2 offrent une mise en réseau à bande passante élevée, de hautes capacités de calcul en virgule flottante simple et double précision et 12 Gio de mémoire par GPU. Elles sont ainsi parfaitement adaptées au Deep Learning, aux bases de données graphiques, aux bases de données de haute performance, à la modélisation numérique en dynamique des fluides, aux calculs financiers, à l'analyse sismique, à la modélisation moléculaire, à la recherche génomique, aux tâches de rendu et aux autres charges de travail de calcul GPU côté serveur.

Les instances P2 prennent en charge les transferts pair à pair NVIDIA GPUDirect.

Pour obtenir des informations topologiques sur le système, exécutez la commande suivante :

nvidia-smi topo -m

Pour de plus amples informations, veuillez consulter NVIDIA GPUDirect.

Instances G4

Les instances G4 utilisent les GPU NVIDIA Tesla et fournissent une plateforme hautes performances et économique pour les calculs génériques utilisant les infrastructures CUDA ou de machine learning, ainsi que des applications graphiques utilisant DirectX ou OpenGL. Les instances G4 offrent une mise en réseau avec bande passante élevée, des capacités en virgule flottante avec précision unique, ainsi que des précisions INT8 et INT4. Chaque GPU dispose de 16 Gio de mémoire GDDR6, ce qui permet aux instances G4 d'être adaptées aux inférences de machine learning, au transcodage vidéo et aux applications graphiques telles que les postes de travail graphiques à distance et le streaming de jeux dans le cloud.

Les instances G4 prennent en charge le poste de travail virtuel NVIDIA GRID. Pour de plus amples informations, veuillez consulter les offres NVIDIA sur Marketplace.

Instances G3

Les instances G3 utilisent des GPU NVIDIA Tesla M60 et offrent une plateforme économique à hautes performances pour les applications graphiques qui utilisent DirectX ou OpenGL. Les instances G3 fournissent également des fonctions de station de travail virtuelle NVIDIA GRID, qui prennent en charge 4 écrans avec des résolutions pouvant atteindre 4096x2160 et des applications virtuelles NVIDIA GRID. Les instances G3 sont bien adaptées aux applications, telles que les visualisations 3D, les stations de travail distantes gourmandes en graphiques, le rendu 3D, l'encodage vidéo, la réalité virtuelle et autres charges de travail graphiques côté serveur nécessitant une puissance de traitement massivement parallèle.

Les instances G3 prennent en charge les stations de travail virtuelles et les applications virtuelles NVIDIA GRID. Pour activer ces fonctionnalités, consultez Activation des applications virtuelles NVIDIA GRID sur des instances G3.

Instances G2

Les instances G2 utilisent des GPU NVIDIA GRID K520 et offrent une plate-forme économique à hautes performances pour les applications graphiques qui utilisent DirectX ou OpenGL. Les GPU NVIDIA GRID prennent également en charge la capture rapide de NVIDIA et encodent les opérations d'API. Les services de création vidéo, les visualisations 3D, la diffusion d'applications gourmandes en graphiques et autres charges de travail côté serveur sont des exemples d'applications.

Spécifications matérielles

Vous trouverez ci-dessous un résumé des spécifications matérielles relatives aux instances à calcul accéléré.

Type d'instance vCPU par défaut Mémoire (Gio) Accélérateurs
p2.xlarge 4 61 1
p2.8xlarge 32 488 8
p2.16xlarge 64 732 16
p3.2xlarge 8 61 1
p3.8xlarge 32 244 4
p3.16xlarge 64 488 8
p3dn.24xlarge 96 768 8
g2.2xlarge 8 15 1
g2.8xlarge 32 60 4
g3s.xlarge 4 30,5 1
g3.4xlarge 16 122 1
g3.8xlarge 32 244 2
g3.16xlarge 64 488 4
g4dn.xlarge 4 16 1
g4dn.2xlarge 8 32 1
g4dn.4xlarge 16 64 1
g4dn.8xlarge 32 128 1
g4dn.12xlarge 48 192 4
g4dn.16xlarge 64 256 1
f1.2xlarge 8 122 1
f1.4xlarge 16 244 2
f1.16xlarge 64 976 8

Pour plus d'informations sur les spécifications matérielles pour chaque type d'instance Amazon EC2, consultez la page Types d'instance Amazon EC2.

Pour plus d'informations sur la spécification des options d'UC, consultez Optimisations des options d'UC.

Performances des instances

Il existe plusieurs optimisations de configuration GPU que vous pouvez effectuer pour obtenir les meilleures performances sur vos instances. Pour plus d'informations, consultez Optimisation des paramètres GPU.

Les instances optimisées EBS vous permettent d'obtenir régulièrement des performances élevées pour vos volumes EBS en éliminant les conflits entre les E/S Amazon EBS et tout autre trafic réseau de votre instance Certaines instances optimisées à calcul accéléré sont optimisées pour EBS par défaut sans frais supplémentaires. Pour plus d'informations, consultez Amazon EBS–Instances optimisées.

Certains types d'instances à calcul accéléré permettent de contrôler les états C et P du processeur sur Linux. Les états C contrôlent les niveaux de veille d'un noyau lorsqu'il est inactif, tandis que les états P contrôlent les performances attendues d'un noyau (en termes de fréquence d'UC). Pour plus d'informations, consultez Contrôle des états du processeur pour votre instance EC2.

Performances réseau

Vous pouvez activer les fonctionnalités de mise en réseau améliorée sur les types d'instance pris en charge. La mise en réseau améliorée fournit des performances de débit en paquets par seconde (PPS) nettement plus élevées, une instabilité réseau moindre et des latences réduites. Pour plus d'informations, consultez Mise en réseau améliorée sur Linux.

Les types d'instance qui utilisent Elastic Network Adapter (ENA) pour la mise en réseau améliorée fournissent des performances élevées de débit en paquets par seconde avec des latences régulièrement faibles. La plupart des applications ne nécessitent pas en permanence un haut niveau de performances réseau, mais peuvent tirer profit d'un accès à une bande passante accrue lorsqu'elles envoient ou reçoivent des données. Les tailles d'instance qui utilisent ENA et sont documentées avec des performances réseau pouvant atteindre 10 Gb/s ou 25 Gb/s utilisent un mécanisme de crédit d'E/S réseau pour allouer la bande passante réseau aux instances en fonction de l'utilisation moyenne de la bande passante. Ces instances accumulent des crédits lorsque la bande passante du réseau est inférieure à leurs limites de référence et peuvent les utiliser quand elles effectuent les transferts de données réseau.

Vous trouverez ci-dessous un résumé des performances réseau relatives aux instances à calcul accéléré qui prennent en charge la mise en réseau améliorée.

Type d'instance Performances réseau Mise en réseau améliorée

f1.2xlarge | f1.4xlarge | g3.4xlarge | p3.2xlarge

Jusqu'à 10 Gbit/s

ENA

g3s.xlarge | g3.8xlarge | p2.8xlarge | p3.8xlarge

10 Gb/s

ENA

g4dn.xlarge | g4dn.2xlarge | g4dn.4xlarge

Jusqu'à 25 Gbit/s

ENA

f1.16xlarge | g3.16xlarge | p2.16xlarge | p3.16xlarge

25 Gbit/s

ENA

g4dn.8xlarge | g4dn.12xlarge | g4dn.16xlarge

50 Gb/s

ENA

p3dn.24xlarge

100 Gb/s

ENA

Fonctionnalités des instances

Voici un résumé des fonctions pour les instances à calcul accéléré.

EBS uniquement EBS NVMe Stockage d'instance Groupe de placement

G2

Non

Non

SSD

Oui

G3

Oui

Non

Non

Oui

G4

Non

Oui

NVMe *

Oui

P2

Oui

Non

Non

Oui

P3

p3dn.24xlarge : non

Toutes les autres tailles : oui

p3dn.24xlarge : oui

Toutes les autres tailles : non

p3dn.24xlarge : NVMe *

Oui

F1

Non

Non

NVMe *

Oui

* Le volume du périphérique racine doit être un volume Amazon EBS.

Pour plus d'informations, consultez les ressources suivantes :

Notes de mise à jour

  • Vous devez lancer l'instance à l'aide d'une AMI HVM.

  • Les exigences pour les instances G4 sont les suivantes :

    Les AMI suivantes répondent aux critères suivants :

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03

    • Ubuntu 14.04 (avec le noyau linux-aws) ou version ultérieure

    • Red Hat Enterprise Linux 7.4 ou version ultérieure

    • SUSE Linux Enterprise Server 12 SP2 ou version ultérieure

    • CentOS 7.4.1708 ou version ultérieure

    • FreeBSD 11.1 ou version ultérieure

  • Les instances GPU ne peuvent pas accéder à la GPU si les pilotes NVIDIA ne sont pas installés. Pour plus d'informations, consultez Installation du pilote NVIDIA sur les instances Linux.

  • Il y a une limite de 100 images AFI par région.

  • Le nombre d'instances que vous pouvez exécuter est limité. Pour plus d'informations, consultez Combien d'instances puis-je exécuter dans Amazon EC2 ? dans le Forum Aux Questions (FAQ) Amazon EC2. Pour demander une augmentation de ces limites, utilisez le formulaire de demande d'augmentation de la limite d'instance Amazon EC2.

Les AMI des instances à calcul accéléré GPU

Pour vous aider à démarrer, NVIDIA et d'autres outils fournissent des AMI pour des instances à calcul accéléré GPU. Ces AMI de référence incluent le pilote NVIDIA qui active les fonctionnalités et les performances complètes des GPU NVIDIA.

Pour obtenir la liste des AMI avec le pilote NVIDIA, effectuez la recherche suivante dans AWS Marketplace :

Vous pouvez lancer des instances à calcul accéléré à l'aide de n'importe quelle AMI HVM.

Important

Ces AMI incluent des pilotes, des logiciels et des outils qui sont développés, détenus ou fournis par NVIDIA Corporation. En utilisant ces AMI, vous acceptez d'utiliser ces pilotes, logiciels ou boîtes à outils NVIDIA uniquement sur des instances Amazon EC2 qui comprennent du matériel NVIDIA.

Vous pouvez également installer le pilote NVIDIA. Pour plus d'informations, consultez Installation du pilote NVIDIA sur les instances Linux.