Instances de calcul accéléré Linux
Les instances à calcul accéléré utilisent des accélérateurs matériels ou des coprocesseurs pour exécuter certaines fonctions, telles que le calcul en virgule flottante, le traitement graphique ou la correspondance de modèles de données, plus efficacement qu'il n'est possible avec les logiciels exécutés sur processeurs. Ces instances offrent de meilleures capacités de traitement en parallèle afin d'accélérer les charges de travail qui nécessitent beaucoup de ressources système.
Si vous avez besoin de capacités de traitement parallèle élevées, utilisez des instances à calcul accéléré qui vous donneront accès aux accélérateurs matériels tels que les unités GPU (Graphics Processing Units), FPGA (Field Programmable Gate Arrays) ou AWS Inferentia.
Sommaire
- instances GPU
- Instances avec AWS Trainium
- instances avec AWS Inferentia
- instances avec accélérateurs Habana
- instances de transcodage vidéo
- instances FPGA
- Spécifications matérielles
- Performances de l'instance
- Performances réseau
- Performances d'E/S Amazon EBS
- Performances d'E/S du volume de stockage d'instances basé sur un SSD
- Notes de mise à jour
- Installer les pilotes NVIDIA sur des instances Linux
- Installer des pilotes AMD sur des instances Linux
- Configuration d'un double affichage 4K sur G4ad
- Activer les applications virtuelles NVIDIA GRID
- Optimiser les paramètres GPU
instances GPU
Les instances GPU donnent accès aux unités GPU NVIDIA avec des milliers de cœurs de calcul. Vous pouvez utiliser ces instances pour accélérer de nombreuses applications scientifiques, d'ingénierie et de rendu en tirant parti de l'architecture CUDA ou d'infrastructures de calcul parallèle OpenCL (Open Computing Language). Vous pouvez également les utiliser pour des applications graphiques, notamment les jeux en streaming, les applications 3D en streaming, et d'autres charges de travail graphiques.
Instances G5
Les instances G5 utilisent des GPU NVIDIA A10G et fournissent des performances élevées pour les applications gourmandes en graphisme, telles que les stations de travail distantes, le rendu vidéo et les jeux dans le cloud, ainsi que des modèles de deep learning pour des applications telles que le traitement du langage naturel, la reconnaissance d'image et les moteurs de recommandation. Ces instances comprennent jusqu'à 8 GPU NVIDIA A10G, des processeurs AMD EPY de deuxième génération, jusqu'à 100 Gbit/s de bande passante réseau et jusqu'à 7,6 To de stockage SSD NVMe local.
Pour plus d'informations, consultez Instances G5 Amazon EC2
Instances G5g
Les instances G5g utilisent des GPU NVIDIA T4G et fournissent des performances élevées pour les applications gourmandes en graphisme comme que le streaming et le rendu de jeux qui exploitent les API standard du secteur, telles que OpenGL et Vulkan. Ces instances sont également adaptées à l'exécution de modèles de deep learning pour des applications telles que le traitement du langage naturel et la reconnaissance d'image. Ces instances comportent jusqu'à 2 GPU NVIDIA T4G Tensor Core, des processeurs Graviton2 AWS et jusqu'à 25 Gbit/s de bande passante réseau.
Pour plus d'informations, consultez Instances G5g Amazon EC2
instances G4ad et G4dn
Les instances G4ad utilisent des GPU AMD Radeon Pro V520 et des processeurs AMD EPYC de 2e génération. Elles sont parfaitement adaptées aux applications graphiques telles que les stations de travail graphiques distantes, le streaming de jeux et le rendu qui exploitent des API conformes aux normes du secteur, telles que OpenGL, DirectX et Vulkan. Elles fournissent jusqu'à quatre GPU AMD Radeon Pro V520, 64 vCPU, un réseau de 25 Gb/s et 2,4 o de stockage SSD local basé sur NVME.
Les instances G4dn utilisent les GPU NVIDIA Tesla et fournissent une plateforme hautes performances et économique pour les calculs génériques utilisant les frameworks CUDA ou de machine learning, ainsi que des applications graphiques utilisant DirectX ou OpenGL. Ces instances offrent des réseaux avec bande passante élevée, des capacités en virgule flottante avec précision unique, ainsi que des précisions INT8 et INT4. Chaque GPU dispose de 16 Gio de mémoire GDDR6, ce qui permet aux instances G4dn d'être adaptées aux inférences de machine learning, au transcodage vidéo et aux applications graphiques telles que les postes de travail graphiques à distance et le streaming de jeux dans le cloud.
Pour plus d'informations, consultez Instances G4 Amazon EC2
Les instances G4dn prennent en charge le poste de travail virtuel NVIDIA GRID. Pour plus d'informations, consultez les offres NVIDIA sur Marketplace
instances G3
Ces instances utilisent des GPU NVIDIA Tesla M60 et offrent une plateforme économique à hautes performances pour les applications graphiques qui utilisent DirectX ou OpenGL. Les instances G3 fournissent également des fonctions de station de travail virtuelle NVIDIA GRID, qui prennent en charge 4 écrans avec des résolutions pouvant atteindre 4096x2160 et des applications virtuelles NVIDIA GRID. Les instances G3 sont bien adaptées aux applications, telles que les visualisations 3D, les stations de travail distantes gourmandes en graphiques, le rendu 3D, l'encodage vidéo, la réalité virtuelle et autres charges de travail graphiques côté serveur nécessitant une puissance de traitement massivement parallèle.
Pour plus d'informations, consultez Instances G3 Amazon EC2
Les instances G3 prennent en charge les stations de travail virtuelles et les applications virtuelles NVIDIA GRID. Pour activer ces fonctionnalités, consultez Activer les applications virtuelles NVIDIA GRID.
instances G2
Ces instances utilisent des GPU NVIDIA GRID K520 et offrent une plateforme économique à hautes performances pour les applications graphiques qui utilisent DirectX ou OpenGL. Les GPU NVIDIA GRID prennent également en charge la capture rapide de NVIDIA et encodent les opérations d'API. Les services de création vidéo, les visualisations 3D, le streaming d'applications gourmandes en graphiques et autres charges de travail côté serveur sont des exemples d'applications.
instances P4d
Ces instances utilisent des GPU NVIDIA A100 et fournissent une plateforme hautes performances pour le machine learning et les charges de travail HPC. Les instances P4d offrent 400 Gb/s de débit de bande passante réseau agrégé et un support, Elastic Fabric Adapter (EFA). Il s'agit des premières instances EC2 à fournir plusieurs cartes réseau.
Pour plus d'informations, consultez Amazon EC2 instances P4d
Les instances P4d prennent en charge l'interconnexion GPU NVIDIA NVSwitch et NVIDIA GPUDirect RDMA.
Les instances P4de offrent des GPU NVIDIA 80 Go-A100s
instances P3
Ces instances utilisent des GPU NVIDIA Tesla V100 et sont conçues pour le calcul GPU à usage général à l'aide des modèles de programmation CUDA ou OpenCL, ou via un framework de machine learning. Les instances P3 offrent une mise en réseau à bande passante élevée, de hautes capacités de calcul en virgule flottante de mi-précision, de simple précision et double précision, ainsi que jusqu'à 32 Gio de mémoire par GPU. Cela en fait un outil idéal dans les domaines du Deep Learning, de la mécanique des fluides numérique, des calculs financiers, de l'analyse sismique, de la modélisation moléculaire, de la génomique, du rendu et d'autres charges de travail de calcul GPU côté serveur. Les GPU Tesla V100 ne prennent pas en charge le mode graphique.
Pour plus d'informations, consultez Instances P3 Amazon EC2
Les instances P3 prennent en charge les transferts entre homologues NVIDIA NVLink. Pour plus d'informations, consultez NVIDIA NVLink
instances P2
Les instances P2 utilisent des GPU NVIDIA Tesla K80 et sont conçues pour le calcul GPU à usage général à l'aide des modèles de programmation CUDA ou OpenCL. Les instances P2 offrent une mise en réseau à bande passante élevée, de hautes capacités de calcul en virgule flottante simple et double précision et 12 Gio de mémoire par GPU. Elles sont ainsi parfaitement adaptées au Deep Learning, aux bases de données graphiques, aux bases de données de haute performance, à la modélisation numérique en dynamique des fluides, aux calculs financiers, à l'analyse sismique, à la modélisation moléculaire, à la recherche génomique, aux tâches de rendu et aux autres charges de travail de calcul GPU côté serveur.
Les instances P2 prennent en charge les transferts pair à pair NVIDIA GPUDirect. Pour plus d'informations, consultez NVIDIA GPUDirect
Instances avec AWS Trainium
Les instances Trn1 Amazon EC2, à technologie AWS Trainium
Pour plus d'informations, consultez Amazon EC2 Trn1 Instances
instances avec AWS Inferentia
Ces instances sont conçues pour accélérer le machine learning à l'aide d'AWS Inferentia
Il y a plusieurs façons de démarrer :
-
Utilisez SageMaker, un service entièrement géré qui est le moyen le plus simple de démarrer avec les modèles de machine learning. Pour plus d'informations, voir Mise en route avec SageMaker dans le Guide du développeur Amazon SageMaker.
-
Lancez une instance Inf1 à l'aide de l'AMI Deep Learning. Pour plus d'informations, consultez la section AWS Inferentia avec DLAMI du Guide du développeur AWS Deep Learning AMI.
-
Lancez une instance Inf1 à l'aide de votre propre AMI et installez le kit SDK AWS Neuron
, qui vous permet de compiler, d'exécuter et de profiler des modèles de deep learning pour AWS Inferentia. -
Lancez une instance de conteneur à l'aide d'une instance InF1 et d'une AMI optimisée par Amazon ECS. Pour plus d'informations, consultez AMI Amazon Linux 2 (Inferentia) dans le Amazon Elastic Container Service Developer Guide.
-
Créez un cluster Amazon EKS avec des nœuds exécutant des instances Inf1. Pour plus d'informations, consultez Prise en charge d'Inferentiadans le Guide de l'utilisateur Amazon EKS.
Pour plus d'informations, consultez Machine Learning sur AWS
instances Inf1
Les instances Inf1 utilisent des puces d'inférence de machine learning AWS Inferentia. Inferentia a été développé pour garantir des performances d'inférence à faible latence très rentables à n'importe quelle échelle.
Pour plus d'informations, consultez Instances Inf1 Amazon EC2
instances avec accélérateurs Habana
Ces instances sont conçues pour accélérer les charges de travail d'entraînement aux modèles de deep learning (DL). Elles utilisent des accélérateurs de Habana Labs, une société Intel. Ces instances sont optimisées pour les modèles DL pour des applications telles que la reconnaissance d'images, la détection et la classification d'objets et les systèmes de recommandation.
Pour plus d'informations, consultez Machine Learning sur AWS
instances DL1
Les instances DL1 utilisent des accélérateurs Habana Gaudi. Elles offrent jusqu'à 400 Gbit/s de bande passante réseau agrégée, ainsi que 32 Go de mémoire haute bande passante (HBM) par accélérateur. Les instances DL1 sont conçues pour fournir des performances élevées et un rapport coût-efficacité pour l'entraînement de modèles de Deep Learning.
Il y a plusieurs façons de démarrer :
-
Lancer une instance DL1 à l'aide de l'AMI Habana Deep Learning.
-
Lancer une instance DL1 à l'aide de votre propre AMI et installez les pilotes Habana et le kit SDK Habana SynapseAI
. -
Lancer une instance de conteneur à l'aide d'une instance DL1 et d'une AMI optimisée par Amazon ECS.
-
Créer un cluster Amazon EKS avec des nœuds exécutant des instances DL1.
Pour plus d'informations, consultez Instances Amazon EC2 DL1
instances de transcodage vidéo
Ces instances sont conçues pour accélérer les charges de travail de transcodage vidéo, telles que la diffusion en direct, la vidéoconférence et le transcodage juste à temps.
instances VT1
Les instances VT1 disposent d'accélérateurs multimédias Xilinx Alveo U30 et sont conçues pour les charges de travail de transcodage vidéo en direct. Ces instances offrent jusqu'à 8 cartes d'accélération Xilinx Alveo U30, fournissent jusqu'à 192 Go de mémoire système et jusqu'à 25 Gbit/s de bande passante réseau. Les instances VT1 disposent de codecs H.264/AVC et H.265/HEVC et prennent en charge les résolutions UHD 4K pour le transcodage vidéo multi-flux.
Il y a plusieurs façons de démarrer :
-
Lancer une instance VT1 à l'aide des AMI U30 Xilinx sur AWS Marketplace.
-
Lancer une instance VT1 à l'aide de votre propre AMI et installer les pilotes Xilinx U30 et le kit SDK vidéo Xilinx
. -
Lancer une instance de conteneur à l'aide d'une instance VT1 et d'une AMI optimisée par Amazon ECS.
-
Créer un cluster Amazon EKS avec des nœuds exécutant des instances VT1.
Pour plus d'informations, consultez Amazon EC2 VT1 Instances
instances FPGA
Les instances FPGA donnent accès à d'importants FPGA avec des millions de cellules logiques de système parallèle. Vous pouvez utiliser des instances de calcul accéléré FPGA pour accélérer des charges de travail comme l'analyse du génome, l'analyse financière, le traitement vidéo en temps réel, l'analyse du Big Data et les charges de travail de sécurité en tirant parti des accélérations matérielles personnalisées. Vous pouvez développer ces accélérations à l'aide des langages de description de matériel comme Verilog ou VHDL ou en utilisant des langages de niveau supérieur comme les infrastructures de calcul parallèle OpenCL (Open Computing Language). Vous pouvez également développer votre propre code d'accélération matérielle ou acheter des accélérations matérielles via AWS Marketplace
L'AMI FPGA Developer AMI
Pour plus d'informations, consultez la documentation du kit de développement matériel FPGA AWS
instances F1
Les instances F1 utilisent les FPGA VU9P Xilinx UltraScale+ et sont conçues pour accélérer des algorithmes de calculs intensifs, comme les opérations de flux de données ou hautement parallèles non appropriées aux UC à usage général. Chaque FPGA dans une instance F1 contient environ 2,5 millions d'éléments logiques et approximativement 6 800 moteurs DSP (Digital Signal Processing) avec 64 Gio de mémoire protégée ECC DDR locale, connectés à l'instance par une connexion PCIe Gen3 x16 dédiée. Les instances F1 fournissent des volumes SSD NVMe locaux.
Les développeurs peuvent utiliser l'AMI des développeurs de FPGA et le kit de développement matériel AWS pour créer des accélérations matérielles personnalisées à utiliser sur des instances F1. L'AMI des développeurs de FPGA comprend des outils de développement pour le développement entier de FPGA dans le cloud. A l'aide de ces outils, les développeurs peuvent créer et partager des images AFI (Amazon FPGA Images) qui peuvent être chargées sur le FPGA d'une instance F1.
Pour plus d'informations, consultez Instances F1 Amazon EC2
Spécifications matérielles
Vous trouverez ci-dessous un résumé des spécifications matérielles relatives aux instances à calcul accéléré. Une unité de traitement centralisée virtuelle (vCPU) représente une partie de l'UC physique affectée à une machine virtuelle (VM). Pour les instances x86, il existe deux vCPUs par cœur. Pour les instances Graviton, il existe un vCPU par cœur.
Type d'instance | vCPU par défaut | Mémoire (Gio) | Accélérateurs |
---|---|---|---|
dl1.24xlarge | 96 | 768,00 | 8 GPU |
f1.2xlarge | 8 | 122,00 | 1 FPGA |
f1.4xlarge | 16 | 244,00 | 2 FPGA |
f1.16xlarge | 64 | 976,00 | 8 FPGA |
g2.2xlarge | 8 | 15,00 | 1 GPU |
g2.8xlarge | 32 | 60,00 | 4 GPU |
g3.4xlarge | 16 | 122,00 | 1 GPU |
g3.8xlarge | 32 | 244,00 | 2 GPU |
g3.16xlarge | 64 | 488,00 | 4 GPU |
g4ad.xlarge | 4 | 16,00 | 1 GPU |
g4ad.2xlarge | 8 | 32,00 | 1 GPU |
g4ad.4xlarge | 16 | 64,00 | 1 GPU |
g4ad.8xlarge | 32 | 128,00 | 2 GPU |
g4ad.16xlarge | 64 | 256,00 | 4 GPU |
g4dn.xlarge | 4 | 16,00 | 1 GPU |
g4dn.2xlarge | 8 | 32,00 | 1 GPU |
g4dn.4xlarge | 16 | 64,00 | 1 GPU |
g4dn.8xlarge | 32 | 128,00 | 1 GPU |
g4dn.12xlarge | 48 | 192,00 | 4 GPU |
g4dn.16xlarge | 64 | 256,00 | 1 GPU |
g4dn.metal | 96 | 384,00 | 8 GPU |
g5.xlarge | 4 | 16,00 | 1 GPU |
g5.2xlarge | 8 | 32,00 | 1 GPU |
g5.4xlarge | 16 | 64,00 | 1 GPU |
g5.8xlarge | 32 | 128,00 | 1 GPU |
g5.12xlarge | 48 | 192,00 | 4 GPU |
g5.16xlarge | 64 | 256,00 | 1 GPU |
g5.24xlarge | 96 | 384,00 | 4 GPU |
g5.48xlarge | 192 | 768,00 | 8 GPU |
g5g.xlarge | 4 | 8,00 | 1 GPU |
g5g.2xlarge | 8 | 16,00 | 1 GPU |
g5g.4xlarge | 16 | 32,00 | 1 GPU |
g5g.8xlarge | 32 | 64,00 | 1 GPU |
g5g.16xlarge | 64 | 128,00 | 2 GPU |
g5g.metal | 64 | 128,00 | 2 GPU |
inf1.xlarge | 4 | 8,00 | 1 accélérateur d'inférences |
inf1.2xlarge | 8 | 16,00 | 1 accélérateur d'inférences |
inf1.6xlarge | 24 | 48,00 | 4 accélérateurs d'inférences |
inf1.24xlarge | 96 | 192,00 | 16 accélérateurs d'inférences |
p2.xlarge | 4 | 61,00 | 1 GPU |
p2.8xlarge | 32 | 488,00 | 8 GPU |
p2.16xlarge | 64 | 732,00 | 16 GPU |
p3.2xlarge | 8 | 61,00 | 1 GPU |
p3.8xlarge | 32 | 244,00 | 4 GPU |
p3.16xlarge | 64 | 488,00 | 8 GPU |
p3dn.24xlarge | 96 | 768,00 | 8 GPU |
p4d.24xlarge | 96 | 1152,00 | 8 GPU |
p4de.24xlarge | 96 | 1152,00 | 8 GPU |
trn1.2xlarge | 8 | 32,00 | |
trn1.32xlarge | 128 | 512,00 | |
vt1.3xlarge | 12 | 24,00 | |
vt1.6xlarge | 24 | 48,00 | |
vt1.24xlarge | 96 | 192,00 |
Les instances Trn1 comportent le nombre suivant d'accélérateurs Trainium.
-
trn1.2xlarge
: 1 -
trn1.32xlarge
: 16
Les instances VT1 comportent le nombre suivant d'accélérateurs U30.
-
vt1.3xlarge
: 1 -
vt1.6xlarge
: 2 -
vt1.24xlarge
: 16
Les instances de calcul accéléré utilisent les processeurs suivants.
Processeurs AWS Graviton
-
AWS Graviton2 : G5g
Processeurs AMD
-
Processeurs AMD EPYC de 2e génération (AMD EPYC 7R32) : G4ad, G5
Processeurs Intel
-
Processeurs Intel Xeon Scalable (Broadwell E5-2686 v4) :
F1
G3, P2, P3 -
Processeur Intel Xeon Scalable (Skylake 8175) : P3dn
-
Processeur Intel Xeon Scalable de 2e génération (Cascade Lake P-8275CL) : DL1, P4d,
P4de
-
Processeur Intel Xeon Scalable de 2e génération (Cascade Lake P-8259CL) : VT1
-
Processeur Intel Xeon Scalable de 2e génération (Cascade Lake P-8259L) : G4dn, Inf1
Pour plus d'informations, consultez Types d'instance Amazon EC2
Performances de l'instance
Il existe plusieurs optimisations de configuration GPU que vous pouvez effectuer pour obtenir les meilleures performances sur vos instances. Pour plus d'informations, consultez Optimiser les paramètres GPU.
Les instances optimisées EBS vous permettent d'obtenir régulièrement des performances élevées pour vos volumes EBS en éliminant les conflits entre les I/O Amazon EBS et tout autre trafic réseau de votre instance Certaines instances optimisées à calcul accéléré sont optimisées pour EBS par défaut sans frais supplémentaires. Pour plus d'informations, consultez instances optimisées pour Amazon EBS.
Certains types d'instances à calcul accéléré permettent de contrôler les états « C-state » et « P-state » du processeur sur Linux. Les états C contrôlent les niveaux de veille d'un noyau lorsqu'il est inactif, tandis que les états P contrôlent les performances attendues d'un noyau (en termes de fréquence d'UC). Pour plus d'informations, consultez Contrôle des états du processeur pour votre instance EC2.
Performances réseau
Vous pouvez activer la mise en réseau améliorée sur les types d'instance pris en charge pour fournir des latences plus faibles, une instabilité moindre sur le réseau et des performances de débit en paquets par seconde (PPS) plus élevées. La plupart des applications ne nécessitent pas en permanence un haut niveau de performances réseau, mais peuvent tirer profit d'un accès à une bande passante accrue lorsqu'elles envoient ou reçoivent des données. Pour plus d'informations, consultez Réseaux améliorés sur Linux.
Vous trouverez ci-dessous un résumé des performances réseau relatives aux instances à calcul accéléré qui prennent en charge la mise en réseau améliorée.
Type d'instance | Bande passante de référence (Gbit/s) | Bande passante de rafale (Gbit/s) | Fonctionnalités de mise en réseau améliorées |
---|---|---|---|
dl1.24xlarge |
400,0 | - | ENA | EFA |
g4ad.xlarge † |
2.0 | 10,0 | ENA |
g4ad.2xlarge † |
4,167 | 10,0 | ENA |
g4ad.4xlarge † |
8,333 | 10,0 | ENA |
g4ad.8xlarge |
15,0 | - | ENA |
g4ad.16xlarge |
25.0 | - | ENA |
g4dn.xlarge † |
5.0 | 25.0 | ENA |
g4dn.2xlarge † |
10,0 | 25.0 | ENA |
g4dn.4xlarge † |
20.0 | 25.0 | ENA |
g4dn.8xlarge |
50.0 | - | ENA | EFA |
g4dn.12xlarge |
50.0 | - | ENA | EFA |
g4dn.16xlarge |
50.0 | - | ENA |
g4dn.metal |
100.0 | - | ENA | EFA |
g5.xlarge † |
2,5 | 10,0 | ENA |
g5.2xlarge † |
5.0 | 10,0 | ENA |
g5.4xlarge † |
10,0 | 25.0 | ENA |
g5.8xlarge |
25.0 | - | ENA |
g5.12xlarge |
40,0 | - | ENA |
g5.16xlarge |
25.0 | - | ENA |
g5.24xlarge |
50.0 | - | ENA |
g5.48xlarge |
100.0 | - | ENA | EFA |
g5g.xlarge † |
1,25 | 10,0 | ENA |
g5g.2xlarge † |
2,5 | 10,0 | ENA |
g5g.4xlarge † |
5.0 | 10,0 | ENA |
g5g.8xlarge |
12,0 | - | ENA |
g5g.16xlarge |
25.0 | - | ENA |
g5g.metal |
25.0 | - | ENA |
inf1.xlarge † |
5.0 | 25.0 | ENA |
inf1.2xlarge † |
5.0 | 25.0 | ENA |
inf1.6xlarge |
25.0 | - | ENA |
inf1.24xlarge |
100.0 | - | ENA | EFA |
p3dn.24xlarge |
100.0 | - | ENA | EFA |
p4d.24xlarge |
400,0 | - | ENA | EFA |
p4de.24xlarge |
400,0 | - | ENA | EFA |
trn1.2xlarge † |
3,125 | 12,5 | ENA |
trn1.32xlarge |
800,0 | - | ENA | EFA |
vt1.3xlarge |
3,125 | - | ENA |
vt1.6xlarge |
6,25 | - | ENA |
vt1.24xlarge |
25.0 | - | ENA | EFA |
† Ces instances ont une bande passante de base et peuvent utiliser un mécanisme de crédit d'I/O réseau pour dépasser leur bande passante de base dans la mesure du possible. Pour plus d'informations, consultez Bande passante réseau d'instance.
Performances d'E/S Amazon EBS
Les instances optimisées Amazon EBS utilisent une pile de configuration optimisée et fournissent une capacité supplémentaire et dédiée aux E/S Amazon EBS. Cette optimisation offre les meilleures performances pour vos volumes Amazon EBS en minimisant les conflits entre les E/S Amazon EBS et les autres trafics de votre instance.
Pour de plus amples informations, veuillez consulter instances optimisées pour Amazon EBS.
Performances d'E/S du volume de stockage d'instances basé sur un SSD
Si vous utilisez une AMI Linux avec un noyau de version 4.4 ou ultérieure et que vous utilisez tous les volumes de stockage d'instances basés sur SSD disponibles pour votre instance, vous pouvez obtenir les performances d'IOPS (taille de bloc de 4 096 octets) répertoriées dans le tableau suivant (lorsque la profondeur de la file d'attente est saturée). Sinon, vous obtenez des performances d'IOPS inférieures.
Taille d'instance | IOPS en lecture aléatoires 100 % | IOPS en écriture |
---|---|---|
g4ad.xlarge |
10 417 | 8 333 |
g4ad.2xlarge |
20 833 | 16 667 |
g4ad.4xlarge |
41 667 | 33 333 |
g4ad.8xlarge |
83 333 | 66 667 |
g4ad.16xlarge |
166 667 | 133 333 |
g5.xlarge |
40 625 | 20 313 |
g5.2xlarge |
40 625 | 20 313 |
g5.4xlarge |
125 000 | 62 500 |
g5.8xlarge |
250 000 | 125 000 |
g5.12xlarge |
312 500 | 156 250 |
g5.16xlarge |
250 000 | 125 000 |
g5.24xlarge |
312 500 | 156 250 |
g5.48xlarge |
625 000 | 312 500 |
Au fur et à mesure que vous remplissez les volumes de stockage d'instances basés sur SSD pour votre instance, le nombre d'IOPS en écriture que vous pouvez obtenir diminue. Ceci est dû au travail supplémentaire que le contrôleur SSD doit effectuer pour trouver de l'espace disponible, réécrire les données existantes et effacer l'espace non utilisé pour le rendre réinscriptible. Ce processus de nettoyage de la mémoire se traduit par une amplification d'écriture interne sur le disque SSD, exprimée sous la forme du rapport des opérations d'écriture SSD sur les opérations d'écriture utilisateur. Cette diminution des performances est encore plus importante si les opérations d'écriture ne sont pas exprimées en multiples de 4 096 octets ou ne sont pas alignées sur une limite de 4 096 octets. Si vous écrivez une quantité d'octets plus faible ou des octets qui ne sont pas alignés, le contrôleur SSD doit lire les données environnantes et stocker le résultat dans un nouvel emplacement. Ce modèle se traduit par une forte augmentation de l'amplification d'écriture, une latence accrue et une diminution considérable des performances d'I/O.
Les contrôleurs SSD peuvent utiliser plusieurs stratégies pour réduire l'impact de l'amplification d'écriture. Une telle stratégie consiste à réserver un espace dans le stockage d'instance SSD afin que le contrôleur puisse gérer efficacement l'espace disponible pour les opérations d'écriture. Cette solution est appelée sur-approvisionnement. Les volumes de stockage d'instances SSD fournis à une instance n'ont pas d'espace réservé pour le sur-approvisionnement. Pour réduire l'amplification d'écriture, nous vous conseillons de laisser 10 % du volume non partitionné que le contrôleur SSD pourra utiliser pour le sur-approvisionnement. Cela diminue le stockage que vous pouvez utiliser, mais augmente les performances même si le disque est proche de sa capacité maximale.
Pour les volumes de stockage d'instances qui prennent en charge TRIM, vous pouvez utiliser la commande TRIM pour informer le contrôleur SSD lorsque vous n'avez plus besoin des données que vous avez écrites. Cela fournit au contrôleur plus d'espace disponible, ce qui peut réduire l'amplification d'écriture et augmenter les performances. Pour de plus amples informations, veuillez consulter Prise en charge de TRIM sur les volumes de stockage d'instance.
Notes de mise à jour
-
Vous devez lancer l'instance à l'aide d'une AMI HVM.
-
Les instances reposant sur le Système Nitro présentent les exigences suivantes :
Les pilotes NVMe doivent être installés.
Les pilotes Elastic Network Adapter (ENA) doivent être installés.
Les AMI Linux suivantes répondent aux critères suivants :
Amazon Linux 2
AMI Amazon Linux 2018.03
-
Ubuntu 14.04 ou une version ultérieure avec noyau
linux-aws
Note Les types d'instances basés sur AWS Graviton nécessitent Ubuntu 18.04 ou une version ultérieure avec noyau
linux-aws
Red Hat Enterprise Linux 7.4 ou une version ultérieure
SUSE Linux Enterprise Server 12 SP2 ou une version ultérieure
CentOS 7.4.1708 ou une version ultérieure
FreeBSD 11.1 ou une version ultérieure
Debian GNU/Linux 9 ou une version ultérieure
-
Les instances GPU ne peuvent pas accéder à la GPU si les pilotes NVIDIA ne sont pas installés. Pour plus d'informations, consultez Installer les pilotes NVIDIA sur des instances Linux.
-
Le lancement d'une instance en matériel nu démarre le serveur sous-jacent, qui inclut la vérification de tous les composants du matériel et du microprogramme. Cela signifie que 20 minutes peuvent s'écouler entre le moment où l'instance passe à l'état d'exécution et le moment où elle devient disponible sur le réseau.
-
Attacher ou détacher des volumes EBS ou des interfaces réseau secondaires à partir d'une instance en matériel nu requiert la prise en charge de l'enfichage à chaud natif de PCIe. Amazon Linux 2 et les dernières versions de l'AMI Amazon Linux prennent en charge l'enfichage à chaud natif de PCIe, ce qui n'est pas le cas des versions antérieures. Vous devez activer les options de configuration suivantes du noyau Linux :
CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
-
Les instances en matériel nu utilisent un périphérique série basé sur PCI plutôt qu'un périphérique série basé sur le port d'I/O. Le noyau Linux kernel en amont et les dernières AMI Amazon Linux prennent en charge ce périphérique. Les instances en matériel nu fournissent également un tableau SPCR ACPI afin de permettre au système d'utiliser automatiquement le périphérique série basé sur PCI. Les dernières AMI Windows utilisent automatiquement le périphérique série basé sur PCI.
-
Il y a une limite de 100 images AFI par région.
-
Le nombre total d'instances que vous pouvez lancer dans une région est soumis à une limite, et il existe des limites supplémentaires sur certains types d'instances. Pour plus d'informations, consultez Combien d'instances est-il possible d'exécuter dans Amazon EC2 ?
dans les questions fréquentes Amazon EC2.