Instances de calcul accéléré Linux - Amazon Elastic Compute Cloud

Instances de calcul accéléré Linux

Les instances à calcul accéléré utilisent des accélérateurs matériels ou des coprocesseurs pour exécuter certaines fonctions, telles que le calcul en virgule flottante, le traitement graphique ou la correspondance de modèles de données, plus efficacement qu'il n'est possible avec les logiciels exécutés sur processeurs. Ces instances offrent de meilleures capacités de traitement en parallèle afin d'accélérer les charges de travail qui nécessitent beaucoup de ressources système.

Si vous avez besoin de capacités de traitement parallèle élevées, utilisez des instances à calcul accéléré qui vous donneront accès aux accélérateurs matériels tels que les unités GPU (Graphics Processing Units), FPGA (Field Programmable Gate Arrays) ou AWS Inferentia.

instances GPU

Les instances GPU donnent accès aux unités GPU NVIDIA avec des milliers de cœurs de calcul. Vous pouvez utiliser ces instances pour accélérer de nombreuses applications scientifiques, d'ingénierie et de rendu en tirant parti de l'architecture CUDA ou d'infrastructures de calcul parallèle OpenCL (Open Computing Language). Vous pouvez également les utiliser pour des applications graphiques, notamment les jeux en streaming, les applications 3D en streaming, et d'autres charges de travail graphiques.

Instances G5

Les instances G5 utilisent des GPU NVIDIA A10G et fournissent des performances élevées pour les applications gourmandes en graphisme, telles que les stations de travail distantes, le rendu vidéo et les jeux dans le cloud, ainsi que des modèles de deep learning pour des applications telles que le traitement du langage naturel, la reconnaissance d'image et les moteurs de recommandation. Ces instances comprennent jusqu'à 8 GPU NVIDIA A10G, des processeurs AMD EPY de deuxième génération, jusqu'à 100 Gbit/s de bande passante réseau et jusqu'à 7,6 To de stockage SSD NVMe local.

Pour plus d'informations, consultez Instances G5 Amazon EC2.

Instances G5g

Les instances G5g utilisent des GPU NVIDIA T4G et fournissent des performances élevées pour les applications gourmandes en graphisme comme que le streaming et le rendu de jeux qui exploitent les API standard du secteur, telles que OpenGL et Vulkan. Ces instances sont également adaptées à l'exécution de modèles de deep learning pour des applications telles que le traitement du langage naturel et la reconnaissance d'image. Ces instances comportent jusqu'à 2 GPU NVIDIA T4G Tensor Core, des processeurs Graviton2 AWS et jusqu'à 25 Gbit/s de bande passante réseau.

Pour plus d'informations, consultez Instances G5g Amazon EC2.

instances G4ad et G4dn

Les instances G4ad utilisent des GPU AMD Radeon Pro V520 et des processeurs AMD EPYC de 2e génération. Elles sont parfaitement adaptées aux applications graphiques telles que les stations de travail graphiques distantes, le streaming de jeux et le rendu qui exploitent des API conformes aux normes du secteur, telles que OpenGL, DirectX et Vulkan. Elles fournissent jusqu'à quatre GPU AMD Radeon Pro V520, 64 vCPU, un réseau de 25 Gb/s et 2,4 o de stockage SSD local basé sur NVME.

Les instances G4dn utilisent les GPU NVIDIA Tesla et fournissent une plateforme hautes performances et économique pour les calculs génériques utilisant les frameworks CUDA ou de machine learning, ainsi que des applications graphiques utilisant DirectX ou OpenGL. Ces instances offrent des réseaux avec bande passante élevée, des capacités en virgule flottante avec précision unique, ainsi que des précisions INT8 et INT4. Chaque GPU dispose de 16 Gio de mémoire GDDR6, ce qui permet aux instances G4dn d'être adaptées aux inférences de machine learning, au transcodage vidéo et aux applications graphiques telles que les postes de travail graphiques à distance et le streaming de jeux dans le cloud.

Pour plus d'informations, consultez Instances G4 Amazon EC2.

Les instances G4dn prennent en charge le poste de travail virtuel NVIDIA GRID. Pour plus d'informations, consultez les offres NVIDIA sur Marketplace.

instances G3

Ces instances utilisent des GPU NVIDIA Tesla M60 et offrent une plateforme économique à hautes performances pour les applications graphiques qui utilisent DirectX ou OpenGL. Les instances G3 fournissent également des fonctions de station de travail virtuelle NVIDIA GRID, qui prennent en charge 4 écrans avec des résolutions pouvant atteindre 4096x2160 et des applications virtuelles NVIDIA GRID. Les instances G3 sont bien adaptées aux applications, telles que les visualisations 3D, les stations de travail distantes gourmandes en graphiques, le rendu 3D, l'encodage vidéo, la réalité virtuelle et autres charges de travail graphiques côté serveur nécessitant une puissance de traitement massivement parallèle.

Pour plus d'informations, consultez Instances G3 Amazon EC2.

Les instances G3 prennent en charge les stations de travail virtuelles et les applications virtuelles NVIDIA GRID. Pour activer ces fonctionnalités, consultez Activer les applications virtuelles NVIDIA GRID.

instances G2

Ces instances utilisent des GPU NVIDIA GRID K520 et offrent une plateforme économique à hautes performances pour les applications graphiques qui utilisent DirectX ou OpenGL. Les GPU NVIDIA GRID prennent également en charge la capture rapide de NVIDIA et encodent les opérations d'API. Les services de création vidéo, les visualisations 3D, le streaming d'applications gourmandes en graphiques et autres charges de travail côté serveur sont des exemples d'applications.

instances P4d

Ces instances utilisent des GPU NVIDIA A100 et fournissent une plateforme hautes performances pour le machine learning et les charges de travail HPC. Les instances P4d offrent 400 Gb/s de débit de bande passante réseau agrégé et un support, Elastic Fabric Adapter (EFA). Il s'agit des premières instances EC2 à fournir plusieurs cartes réseau.

Pour plus d'informations, consultez Amazon EC2 instances P4d.

Les instances P4d prennent en charge l'interconnexion GPU NVIDIA NVSwitch et NVIDIA GPUDirect RDMA.

Les instances P4de offrent des GPU NVIDIA 80 Go-A100s

instances P3

Ces instances utilisent des GPU NVIDIA Tesla V100 et sont conçues pour le calcul GPU à usage général à l'aide des modèles de programmation CUDA ou OpenCL, ou via un framework de machine learning. Les instances P3 offrent une mise en réseau à bande passante élevée, de hautes capacités de calcul en virgule flottante de mi-précision, de simple précision et double précision, ainsi que jusqu'à 32 Gio de mémoire par GPU. Cela en fait un outil idéal dans les domaines du Deep Learning, de la mécanique des fluides numérique, des calculs financiers, de l'analyse sismique, de la modélisation moléculaire, de la génomique, du rendu et d'autres charges de travail de calcul GPU côté serveur. Les GPU Tesla V100 ne prennent pas en charge le mode graphique.

Pour plus d'informations, consultez Instances P3 Amazon EC2.

Les instances P3 prennent en charge les transferts entre homologues NVIDIA NVLink. Pour plus d'informations, consultez NVIDIA NVLink.

instances P2

Les instances P2 utilisent des GPU NVIDIA Tesla K80 et sont conçues pour le calcul GPU à usage général à l'aide des modèles de programmation CUDA ou OpenCL. Les instances P2 offrent une mise en réseau à bande passante élevée, de hautes capacités de calcul en virgule flottante simple et double précision et 12 Gio de mémoire par GPU. Elles sont ainsi parfaitement adaptées au Deep Learning, aux bases de données graphiques, aux bases de données de haute performance, à la modélisation numérique en dynamique des fluides, aux calculs financiers, à l'analyse sismique, à la modélisation moléculaire, à la recherche génomique, aux tâches de rendu et aux autres charges de travail de calcul GPU côté serveur.

Les instances P2 prennent en charge les transferts pair à pair NVIDIA GPUDirect. Pour plus d'informations, consultez NVIDIA GPUDirect.

Instances avec AWS Trainium

Les instances Trn1 Amazon EC2, à technologie AWS Trainium, sont spécialement conçues pour l'entraînement deep learning, à la fois performant et économique. Vous pouvez utiliser les instances Trn1 pour l'entraînement au traitement du langage naturel, à la vision par ordinateur et aux modèles de recommandation utilisés dans un large éventail d'applications, telles que la reconnaissance vocale, la recommandation, la détection des fraudes et la classification des images et des vidéos. Utilisez vos flux existants dans des frameworks ML populaires, tels que PyTorch et TensorFlow. AWS Neuron SDK s'intègre de manière transparente à ces frameworks afin que vous puissiez démarrer avec seulement quelques lignes de code à modifier.

Pour plus d'informations, consultez Amazon EC2 Trn1 Instances (Instances Trn1 Amazon EC2).

instances avec AWS Inferentia

Ces instances sont conçues pour accélérer le machine learning à l'aide d'AWS Inferentia, une puce IA/ML personnalisée d'Amazon qui fournit des performances élevées et une inférence de machine learning à faible latence. Ces instances sont optimisées pour déployer des modèles de Deep Learning (DL) pour des applications telles que le traitement du langage naturel, la détection et la classification des objets, la personnalisation et le filtrage du contenu et la reconnaissance vocale.

Il y a plusieurs façons de démarrer :

  • Utilisez SageMaker, un service entièrement géré qui est le moyen le plus simple de démarrer avec les modèles de machine learning. Pour plus d'informations, voir Mise en route avec SageMaker dans le Guide du développeur Amazon SageMaker.

  • Lancez une instance Inf1 à l'aide de l'AMI Deep Learning. Pour plus d'informations, consultez la section AWS Inferentia avec DLAMI du Guide du développeur AWS Deep Learning AMI.

  • Lancez une instance Inf1 à l'aide de votre propre AMI et installez le kit SDK AWS Neuron, qui vous permet de compiler, d'exécuter et de profiler des modèles de deep learning pour AWS Inferentia.

  • Lancez une instance de conteneur à l'aide d'une instance InF1 et d'une AMI optimisée par Amazon ECS. Pour plus d'informations, consultez AMI Amazon Linux 2 (Inferentia) dans le Amazon Elastic Container Service Developer Guide.

  • Créez un cluster Amazon EKS avec des nœuds exécutant des instances Inf1. Pour plus d'informations, consultez Prise en charge d'Inferentiadans le Guide de l'utilisateur Amazon EKS.

Pour plus d'informations, consultez Machine Learning sur AWS.

instances Inf1

Les instances Inf1 utilisent des puces d'inférence de machine learning AWS Inferentia. Inferentia a été développé pour garantir des performances d'inférence à faible latence très rentables à n'importe quelle échelle.

Pour plus d'informations, consultez Instances Inf1 Amazon EC2.

instances avec accélérateurs Habana

Ces instances sont conçues pour accélérer les charges de travail d'entraînement aux modèles de deep learning (DL). Elles utilisent des accélérateurs de Habana Labs, une société Intel. Ces instances sont optimisées pour les modèles DL pour des applications telles que la reconnaissance d'images, la détection et la classification d'objets et les systèmes de recommandation.

Pour plus d'informations, consultez Machine Learning sur AWS.

instances DL1

Les instances DL1 utilisent des accélérateurs Habana Gaudi. Elles offrent jusqu'à 400 Gbit/s de bande passante réseau agrégée, ainsi que 32 Go de mémoire haute bande passante (HBM) par accélérateur. Les instances DL1 sont conçues pour fournir des performances élevées et un rapport coût-efficacité pour l'entraînement de modèles de Deep Learning.

Il y a plusieurs façons de démarrer :

  • Lancer une instance DL1 à l'aide de l'AMI Habana Deep Learning.

  • Lancer une instance DL1 à l'aide de votre propre AMI et installez les pilotes Habana et le kit SDK Habana SynapseAI.

  • Lancer une instance de conteneur à l'aide d'une instance DL1 et d'une AMI optimisée par Amazon ECS.

  • Créer un cluster Amazon EKS avec des nœuds exécutant des instances DL1.

Pour plus d'informations, consultez Instances Amazon EC2 DL1.

instances de transcodage vidéo

Ces instances sont conçues pour accélérer les charges de travail de transcodage vidéo, telles que la diffusion en direct, la vidéoconférence et le transcodage juste à temps.

instances VT1

Les instances VT1 disposent d'accélérateurs multimédias Xilinx Alveo U30 et sont conçues pour les charges de travail de transcodage vidéo en direct. Ces instances offrent jusqu'à 8 cartes d'accélération Xilinx Alveo U30, fournissent jusqu'à 192 Go de mémoire système et jusqu'à 25 Gbit/s de bande passante réseau. Les instances VT1 disposent de codecs H.264/AVC et H.265/HEVC et prennent en charge les résolutions UHD 4K pour le transcodage vidéo multi-flux.

Il y a plusieurs façons de démarrer :

  • Lancer une instance VT1 à l'aide des AMI U30 Xilinx sur AWS Marketplace.

  • Lancer une instance VT1 à l'aide de votre propre AMI et installer les pilotes Xilinx U30 et le kit SDK vidéo Xilinx.

  • Lancer une instance de conteneur à l'aide d'une instance VT1 et d'une AMI optimisée par Amazon ECS.

  • Créer un cluster Amazon EKS avec des nœuds exécutant des instances VT1.

Pour plus d'informations, consultez Amazon EC2 VT1 Instances.

instances FPGA

Les instances FPGA donnent accès à d'importants FPGA avec des millions de cellules logiques de système parallèle. Vous pouvez utiliser des instances de calcul accéléré FPGA pour accélérer des charges de travail comme l'analyse du génome, l'analyse financière, le traitement vidéo en temps réel, l'analyse du Big Data et les charges de travail de sécurité en tirant parti des accélérations matérielles personnalisées. Vous pouvez développer ces accélérations à l'aide des langages de description de matériel comme Verilog ou VHDL ou en utilisant des langages de niveau supérieur comme les infrastructures de calcul parallèle OpenCL (Open Computing Language). Vous pouvez également développer votre propre code d'accélération matérielle ou acheter des accélérations matérielles via AWS Marketplace.

L'AMI FPGA Developer AMI fournit les outils nécessaires pour développer, tester et créer des images AFI. Vous pouvez utiliser l'AMI des développeurs de FPGA sur n'importe quelle instance EC2 avec au moins 32 Go de mémoire système (instances C5, M4 et R4 par exemple).

Pour plus d'informations, consultez la documentation du kit de développement matériel FPGA AWS.

instances F1

Les instances F1 utilisent les FPGA VU9P Xilinx UltraScale+ et sont conçues pour accélérer des algorithmes de calculs intensifs, comme les opérations de flux de données ou hautement parallèles non appropriées aux UC à usage général. Chaque FPGA dans une instance F1 contient environ 2,5 millions d'éléments logiques et approximativement 6 800 moteurs DSP (Digital Signal Processing) avec 64 Gio de mémoire protégée ECC DDR locale, connectés à l'instance par une connexion PCIe Gen3 x16 dédiée. Les instances F1 fournissent des volumes SSD NVMe locaux.

Les développeurs peuvent utiliser l'AMI des développeurs de FPGA et le kit de développement matériel AWS pour créer des accélérations matérielles personnalisées à utiliser sur des instances F1. L'AMI des développeurs de FPGA comprend des outils de développement pour le développement entier de FPGA dans le cloud. A l'aide de ces outils, les développeurs peuvent créer et partager des images AFI (Amazon FPGA Images) qui peuvent être chargées sur le FPGA d'une instance F1.

Pour plus d'informations, consultez Instances F1 Amazon EC2.

Spécifications matérielles

Vous trouverez ci-dessous un résumé des spécifications matérielles relatives aux instances à calcul accéléré. Une unité de traitement centralisée virtuelle (vCPU) représente une partie de l'UC physique affectée à une machine virtuelle (VM). Pour les instances x86, il existe deux vCPUs par cœur. Pour les instances Graviton, il existe un vCPU par cœur.

Type d'instance vCPU par défaut Mémoire (Gio) Accélérateurs
dl1.24xlarge 96 768,00 8 GPU
f1.2xlarge 8 122,00 1 FPGA
f1.4xlarge 16 244,00 2 FPGA
f1.16xlarge 64 976,00 8 FPGA
g2.2xlarge 8 15,00 1 GPU
g2.8xlarge 32 60,00 4 GPU
g3.4xlarge 16 122,00 1 GPU
g3.8xlarge 32 244,00 2 GPU
g3.16xlarge 64 488,00 4 GPU
g4ad.xlarge 4 16,00 1 GPU
g4ad.2xlarge 8 32,00 1 GPU
g4ad.4xlarge 16 64,00 1 GPU
g4ad.8xlarge 32 128,00 2 GPU
g4ad.16xlarge 64 256,00 4 GPU
g4dn.xlarge 4 16,00 1 GPU
g4dn.2xlarge 8 32,00 1 GPU
g4dn.4xlarge 16 64,00 1 GPU
g4dn.8xlarge 32 128,00 1 GPU
g4dn.12xlarge 48 192,00 4 GPU
g4dn.16xlarge 64 256,00 1 GPU
g4dn.metal 96 384,00 8 GPU
g5.xlarge 4 16,00 1 GPU
g5.2xlarge 8 32,00 1 GPU
g5.4xlarge 16 64,00 1 GPU
g5.8xlarge 32 128,00 1 GPU
g5.12xlarge 48 192,00 4 GPU
g5.16xlarge 64 256,00 1 GPU
g5.24xlarge 96 384,00 4 GPU
g5.48xlarge 192 768,00 8 GPU
g5g.xlarge 4 8,00 1 GPU
g5g.2xlarge 8 16,00 1 GPU
g5g.4xlarge 16 32,00 1 GPU
g5g.8xlarge 32 64,00 1 GPU
g5g.16xlarge 64 128,00 2 GPU
g5g.metal 64 128,00 2 GPU
inf1.xlarge 4 8,00 1 accélérateur d'inférences
inf1.2xlarge 8 16,00 1 accélérateur d'inférences
inf1.6xlarge 24 48,00 4 accélérateurs d'inférences
inf1.24xlarge 96 192,00 16 accélérateurs d'inférences
p2.xlarge 4 61,00 1 GPU
p2.8xlarge 32 488,00 8 GPU
p2.16xlarge 64 732,00 16 GPU
p3.2xlarge 8 61,00 1 GPU
p3.8xlarge 32 244,00 4 GPU
p3.16xlarge 64 488,00 8 GPU
p3dn.24xlarge 96 768,00 8 GPU
p4d.24xlarge 96 1152,00 8 GPU
p4de.24xlarge 96 1152,00 8 GPU
trn1.2xlarge 8 32,00
trn1.32xlarge 128 512,00
vt1.3xlarge 12 24,00
vt1.6xlarge 24 48,00
vt1.24xlarge 96 192,00
Note

Les instances Trn1 comportent le nombre suivant d'accélérateurs Trainium.

  • trn1.2xlarge : 1

  • trn1.32xlarge : 16

Les instances VT1 comportent le nombre suivant d'accélérateurs U30.

  • vt1.3xlarge : 1

  • vt1.6xlarge : 2

  • vt1.24xlarge : 16

Les instances de calcul accéléré utilisent les processeurs suivants.

Processeurs AWS Graviton
  • AWS Graviton2 : G5g

Processeurs AMD
  • Processeurs AMD EPYC de 2e génération (AMD EPYC 7R32) : G4ad, G5

Processeurs Intel
  • Processeurs Intel Xeon Scalable (Broadwell E5-2686 v4) : F1G3, P2, P3

  • Processeur Intel Xeon Scalable (Skylake 8175) : P3dn

  • Processeur Intel Xeon Scalable de 2e génération (Cascade Lake P-8275CL) : DL1, P4d, P4de

  • Processeur Intel Xeon Scalable de 2e génération (Cascade Lake P-8259CL) : VT1

  • Processeur Intel Xeon Scalable de 2e génération (Cascade Lake P-8259L) : G4dn, Inf1

Pour plus d'informations, consultez Types d'instance Amazon EC2.

Performances de l'instance

Il existe plusieurs optimisations de configuration GPU que vous pouvez effectuer pour obtenir les meilleures performances sur vos instances. Pour plus d'informations, consultez Optimiser les paramètres GPU.

Les instances optimisées EBS vous permettent d'obtenir régulièrement des performances élevées pour vos volumes EBS en éliminant les conflits entre les I/O Amazon EBS et tout autre trafic réseau de votre instance Certaines instances optimisées à calcul accéléré sont optimisées pour EBS par défaut sans frais supplémentaires. Pour plus d'informations, consultez instances optimisées pour Amazon EBS.

Certains types d'instances à calcul accéléré permettent de contrôler les états « C-state » et « P-state » du processeur sur Linux. Les états C contrôlent les niveaux de veille d'un noyau lorsqu'il est inactif, tandis que les états P contrôlent les performances attendues d'un noyau (en termes de fréquence d'UC). Pour plus d'informations, consultez Contrôle des états du processeur pour votre instance EC2.

Performances réseau

Vous pouvez activer la mise en réseau améliorée sur les types d'instance pris en charge pour fournir des latences plus faibles, une instabilité moindre sur le réseau et des performances de débit en paquets par seconde (PPS) plus élevées. La plupart des applications ne nécessitent pas en permanence un haut niveau de performances réseau, mais peuvent tirer profit d'un accès à une bande passante accrue lorsqu'elles envoient ou reçoivent des données. Pour plus d'informations, consultez Réseaux améliorés sur Linux.

Vous trouverez ci-dessous un résumé des performances réseau relatives aux instances à calcul accéléré qui prennent en charge la mise en réseau améliorée.

Type d'instance Bande passante de référence (Gbit/s) Bande passante de rafale (Gbit/s) Fonctionnalités de mise en réseau améliorées
dl1.24xlarge 400,0 - ENA | EFA
g4ad.xlarge 2.0 10,0 ENA
g4ad.2xlarge 4,167 10,0 ENA
g4ad.4xlarge 8,333 10,0 ENA
g4ad.8xlarge 15,0 - ENA
g4ad.16xlarge 25.0 - ENA
g4dn.xlarge 5.0 25.0 ENA
g4dn.2xlarge 10,0 25.0 ENA
g4dn.4xlarge 20.0 25.0 ENA
g4dn.8xlarge 50.0 - ENA | EFA
g4dn.12xlarge 50.0 - ENA | EFA
g4dn.16xlarge 50.0 - ENA
g4dn.metal 100.0 - ENA | EFA
g5.xlarge 2,5 10,0 ENA
g5.2xlarge 5.0 10,0 ENA
g5.4xlarge 10,0 25.0 ENA
g5.8xlarge 25.0 - ENA
g5.12xlarge 40,0 - ENA
g5.16xlarge 25.0 - ENA
g5.24xlarge 50.0 - ENA
g5.48xlarge 100.0 - ENA | EFA
g5g.xlarge 1,25 10,0 ENA
g5g.2xlarge 2,5 10,0 ENA
g5g.4xlarge 5.0 10,0 ENA
g5g.8xlarge 12,0 - ENA
g5g.16xlarge 25.0 - ENA
g5g.metal 25.0 - ENA
inf1.xlarge 5.0 25.0 ENA
inf1.2xlarge 5.0 25.0 ENA
inf1.6xlarge 25.0 - ENA
inf1.24xlarge 100.0 - ENA | EFA
p3dn.24xlarge 100.0 - ENA | EFA
p4d.24xlarge 400,0 - ENA | EFA
p4de.24xlarge 400,0 - ENA | EFA
trn1.2xlarge 3,125 12,5 ENA
trn1.32xlarge 800,0 - ENA | EFA
vt1.3xlarge 3,125 - ENA
vt1.6xlarge 6,25 - ENA
vt1.24xlarge 25.0 - ENA | EFA

† Ces instances ont une bande passante de base et peuvent utiliser un mécanisme de crédit d'I/O réseau pour dépasser leur bande passante de base dans la mesure du possible. Pour plus d'informations, consultez Bande passante réseau d'instance.

Performances d'E/S Amazon EBS

Les instances optimisées Amazon EBS utilisent une pile de configuration optimisée et fournissent une capacité supplémentaire et dédiée aux E/S Amazon EBS. Cette optimisation offre les meilleures performances pour vos volumes Amazon EBS en minimisant les conflits entre les E/S Amazon EBS et les autres trafics de votre instance.

Pour de plus amples informations, veuillez consulter instances optimisées pour Amazon EBS.

Performances d'E/S du volume de stockage d'instances basé sur un SSD

Si vous utilisez une AMI Linux avec un noyau de version 4.4 ou ultérieure et que vous utilisez tous les volumes de stockage d'instances basés sur SSD disponibles pour votre instance, vous pouvez obtenir les performances d'IOPS (taille de bloc de 4 096 octets) répertoriées dans le tableau suivant (lorsque la profondeur de la file d'attente est saturée). Sinon, vous obtenez des performances d'IOPS inférieures.

Taille d'instance IOPS en lecture aléatoires 100 % IOPS en écriture
g4ad.xlarge 10 417 8 333
g4ad.2xlarge 20 833 16 667
g4ad.4xlarge 41 667 33 333
g4ad.8xlarge 83 333 66 667
g4ad.16xlarge 166 667 133 333
g5.xlarge 40 625 20 313
g5.2xlarge 40 625 20 313
g5.4xlarge 125 000 62 500
g5.8xlarge 250 000 125 000
g5.12xlarge 312 500 156 250
g5.16xlarge 250 000 125 000
g5.24xlarge 312 500 156 250
g5.48xlarge 625 000 312 500

Au fur et à mesure que vous remplissez les volumes de stockage d'instances basés sur SSD pour votre instance, le nombre d'IOPS en écriture que vous pouvez obtenir diminue. Ceci est dû au travail supplémentaire que le contrôleur SSD doit effectuer pour trouver de l'espace disponible, réécrire les données existantes et effacer l'espace non utilisé pour le rendre réinscriptible. Ce processus de nettoyage de la mémoire se traduit par une amplification d'écriture interne sur le disque SSD, exprimée sous la forme du rapport des opérations d'écriture SSD sur les opérations d'écriture utilisateur. Cette diminution des performances est encore plus importante si les opérations d'écriture ne sont pas exprimées en multiples de 4 096 octets ou ne sont pas alignées sur une limite de 4 096 octets. Si vous écrivez une quantité d'octets plus faible ou des octets qui ne sont pas alignés, le contrôleur SSD doit lire les données environnantes et stocker le résultat dans un nouvel emplacement. Ce modèle se traduit par une forte augmentation de l'amplification d'écriture, une latence accrue et une diminution considérable des performances d'I/O.

Les contrôleurs SSD peuvent utiliser plusieurs stratégies pour réduire l'impact de l'amplification d'écriture. Une telle stratégie consiste à réserver un espace dans le stockage d'instance SSD afin que le contrôleur puisse gérer efficacement l'espace disponible pour les opérations d'écriture. Cette solution est appelée sur-approvisionnement. Les volumes de stockage d'instances SSD fournis à une instance n'ont pas d'espace réservé pour le sur-approvisionnement. Pour réduire l'amplification d'écriture, nous vous conseillons de laisser 10 % du volume non partitionné que le contrôleur SSD pourra utiliser pour le sur-approvisionnement. Cela diminue le stockage que vous pouvez utiliser, mais augmente les performances même si le disque est proche de sa capacité maximale.

Pour les volumes de stockage d'instances qui prennent en charge TRIM, vous pouvez utiliser la commande TRIM pour informer le contrôleur SSD lorsque vous n'avez plus besoin des données que vous avez écrites. Cela fournit au contrôleur plus d'espace disponible, ce qui peut réduire l'amplification d'écriture et augmenter les performances. Pour de plus amples informations, veuillez consulter Prise en charge de TRIM sur les volumes de stockage d'instance.

Notes de mise à jour

  • Vous devez lancer l'instance à l'aide d'une AMI HVM.

  • Les instances reposant sur le Système Nitro présentent les exigences suivantes :

    Les AMI Linux suivantes répondent aux critères suivants :

    • Amazon Linux 2

    • AMI Amazon Linux 2018.03

    • Ubuntu 14.04 ou une version ultérieure avec noyau linux-aws

      Note

      Les types d'instances basés sur AWS Graviton nécessitent Ubuntu 18.04 ou une version ultérieure avec noyau linux-aws

    • Red Hat Enterprise Linux 7.4 ou une version ultérieure

    • SUSE Linux Enterprise Server 12 SP2 ou une version ultérieure

    • CentOS 7.4.1708 ou une version ultérieure

    • FreeBSD 11.1 ou une version ultérieure

    • Debian GNU/Linux 9 ou une version ultérieure

  • Les instances GPU ne peuvent pas accéder à la GPU si les pilotes NVIDIA ne sont pas installés. Pour plus d'informations, consultez Installer les pilotes NVIDIA sur des instances Linux.

  • Le lancement d'une instance en matériel nu démarre le serveur sous-jacent, qui inclut la vérification de tous les composants du matériel et du microprogramme. Cela signifie que 20 minutes peuvent s'écouler entre le moment où l'instance passe à l'état d'exécution et le moment où elle devient disponible sur le réseau.

  • Attacher ou détacher des volumes EBS ou des interfaces réseau secondaires à partir d'une instance en matériel nu requiert la prise en charge de l'enfichage à chaud natif de PCIe. Amazon Linux 2 et les dernières versions de l'AMI Amazon Linux prennent en charge l'enfichage à chaud natif de PCIe, ce qui n'est pas le cas des versions antérieures. Vous devez activer les options de configuration suivantes du noyau Linux :

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Les instances en matériel nu utilisent un périphérique série basé sur PCI plutôt qu'un périphérique série basé sur le port d'I/O. Le noyau Linux kernel en amont et les dernières AMI Amazon Linux prennent en charge ce périphérique. Les instances en matériel nu fournissent également un tableau SPCR ACPI afin de permettre au système d'utiliser automatiquement le périphérique série basé sur PCI. Les dernières AMI Windows utilisent automatiquement le périphérique série basé sur PCI.

  • Il y a une limite de 100 images AFI par région.

  • Le nombre total d'instances que vous pouvez lancer dans une région est soumis à une limite, et il existe des limites supplémentaires sur certains types d'instances. Pour plus d'informations, consultez Combien d'instances est-il possible d'exécuter dans Amazon EC2 ? dans les questions fréquentes Amazon EC2.