instances de calcul optimisé - Amazon Elastic Compute Cloud

instances de calcul optimisé

Les instances optimisées pour le calcul sont particulièrement adaptées aux applications de calcul qui tirent parti de processeurs aux performances élevées.

instances C5 et C5n

Ces instances conviennent à ce qui suit :

  • Charges de travail de traitement par batch

  • Transcodage multimédia

  • Serveurs web hautes performances

  • Calcul hautes performances (HPC)

  • Modélisation scientifique

  • Serveurs de jeux dédiés et moteurs de diffusion de publicités

  • Inférence de machine learning et autre applications de calcul intensif

Les instances de matériel nu, comme c5.metal, offrent à vos applications un accès direct aux ressources physiques du serveur hôte, comme les processeurs et la mémoire.

Pour plus d'informations, consultez Instances C5 Amazon EC2.

Instances C6g, C6gd et C6gn

Ces instances sont alimentées par des processeurs AWS Graviton2 et sont idéales pour exécuter des charges de travail avancées et exigeantes en calcul, telles que les suivantes :

  • Calcul hautes performances (HPC)

  • Traitement par lots

  • Diffusion publicitaire

  • Encodage vidéo

  • Serveurs de jeu

  • Modélisation scientifique

  • Analyses distribuées

  • Inférence de machine learning basée sur le processeur

Les instances de matériel nu, comme c6g.metal, offrent à vos applications un accès direct aux ressources physiques du serveur hôte, comme les processeurs et la mémoire.

Pour plus d'informations, consultez Instances Amazon EC2 C6g.

Instances C6i et C6id

Ces instances sont idéales pour exécuter des charge de travails avancées et exigeantes en calcul, telles que les suivantes :

  • Calcul hautes performances (HPC)

  • Traitement par lots

  • Diffusion publicitaire

  • Encodage vidéo

  • Analyses distribuées

  • Jeux multijoueur hautement évolutifs

Instances C6in

Ces instances conviennent parfaitement aux charges de travail gourmandes en calcul telles que :

  • Applications de calcul distribuées

  • Appliances virtuelles réseau

  • Analyse des données

  • Calcul hautes performances (HPC)

  • IA/ML basé sur l'UC

Pour plus d'informations, consultez Amazon EC2 C6i instances (instances C6i Amazon EC2).

Instances Hpc6a

Ces instances sont idéales pour exécuter des charges de travail de calcul haute performance (HPC), telles que les suivantes :

  • Dynamique moléculaire

  • Chimie computationnelle

  • Dynamique des fluides numériques

  • Prévisions météorologiques

  • Simulation des matériaux

  • Simulations de collisions

  • Astrophysique

Pour plus d'informations, consultez Instances Hpc6a Amazon EC2.

Spécifications matérielles

Vous trouverez ci-dessous un résumé des spécifications matérielles relatives aux instances optimisées pour le calcul. Une unité de traitement centralisée virtuelle (vCPU) représente une partie de l'UC physique affectée à une machine virtuelle (VM). Pour les instances x86, il existe deux vCPUs par cœur. Pour les instances Graviton, il existe un vCPU par cœur.

Type d'instance vCPU par défaut Mémoire (Gio)
c1.medium 2 1,70
c1.xlarge 8 7,00
c3.large 2 3,75
c3.xlarge 4 7,50
c3.2xlarge 8 15,00
c3.4xlarge 16 30,00
c3.8.xlarge 32 60,00
c4.large 2 3,75
c4.xlarge 4 7,50
c4.2.xlarge 8 15,00
c4.4.xlarge 16 30,00
c4.8.xlarge 36 60,00
c5.large 2 4,00
c5.xlarge 4 8,00
c5.2xlarge 8 16,00
c5.4xlarge 16 32,00
c5.9xlarge 36 72,00
c5.12xlarge 48 96,00
c5.18xlarge 72 144,00
c5.24xlarge 96 192,00
c5.metal 96 192,00
c5a.large 2 4,00
c5a.xlarge 4 8,00
c5a.2xlarge 8 16,00
c5a.4xlarge 16 32,00
c5a.8xlarge 32 64,00
c5a.12xlarge 48 96,00
c5a.16xlarge 64 128,00
c5a.24xlarge 96 192,00
c5ad.large 2 4,00
c5ad.xlarge 4 8,00
c5ad.2xlarge 8 16,00
c5ad.4xlarge 16 32,00
c5ad.8xlarge 32 64,00
c5ad.12xlarge 48 96,00
c5ad.16xlarge 64 128,00
c5ad.24xlarge 96 192,00
c5d.large 2 4,00
c5d.xlarge 4 8,00
c5d.2xlarge 8 16,00
c5d.4xlarge 16 32,00
c5d.9xlarge 36 72,00
c5d.12xlarge 48 96,00
c5d.18xlarge 72 144,00
c5d.24xlarge 96 192,00
c5d.metal 96 192,00
c5n.large 2 5,25
c5n.xlarge 4 10,50
c5n.2xlarge 8 21,00
c5n.4xlarge 16 42,00
c5n.9xlarge 36 96,00
c5n.18xlarge 72 192,00
c5n.metal 72 192,00
c6a.large 2 4,00
c6a.xlarge 4 8,00
c6a.2xlarge 8 16,00
c6a.4xlarge 16 32,00
c6a.8xlarge 32 64,00
c6a.12xlarge 48 96,00
c6a.16xlarge 64 128,00
c6a.24xlarge 96 192,00
c6a.32xlarge 128 256,00
c6a.48xlarge 192 384,00
c6a.metal 192 384,00
c6g.medium 1 2,00
c6g.large 2 4,00
c6g.xlarge 4 8,00
c6g.2xlarge 8 16,00
c6g.4xlarge 16 32,00
c6g.8xlarge 32 64,00
c6g.12xlarge 48 96,00
c6g.16xlarge 64 128,00
c6g.metal 64 128,00
c6gd.medium 1 2,00
c6gd.large 2 4,00
c6gd.xlarge 4 8,00
c6gd.2xlarge 8 16,00
c6gd.4xlarge 16 32,00
c6gd.8xlarge 32 64,00
c6gd.12xlarge 48 96,00
c6gd.16xlarge 64 128,00
c6gd.metal 64 128,00
c6gn.medium 1 2,00
c6gn.large 2 4,00
c6gn.xlarge 4 8,00
c6gn.2xlarge 8 16,00
c6gn.4xlarge 16 32,00
c6gn.8xlarge 32 64,00
c6gn.12xlarge 48 96,00
c6gn.16xlarge 64 128,00
c6i.large 2 4,00
c6i.xlarge 4 8,00
c6i.2xlarge 8 16,00
c6i.4xlarge 16 32,00
c6i.8xlarge 32 64,00
c6i.12xlarge 48 96,00
c6i.16xlarge 64 128,00
c6i.24xlarge 96 192,00
c6i.32xlarge 128 256,00
c6i.metal 128 256,00
c6id.large 2 4,00
c6id.xlarge 4 8,00
c6id.2xlarge 8 16,00
c6id.4xlarge 16 32,00
c6id.8xlarge 32 64,00
c6id.12xlarge 48 96,00
c6id.16xlarge 64 128,00
c6id.24xlarge 96 192,00
c6id.32xlarge 128 256,00
c6id.metal 128 256,00
c6in.large 2 4,00
c6in.xlarge 4 8,00
c6in.2xlarge 8 16,00
c6in.4xlarge 16 32,00
c6in.8xlarge 32 64,00
c6in.12xlarge 48 96,00
c6in.16xlarge 64 128,00
c6in.24xlarge 96 192,00
c6in.32xlarge 128 256,00
c7g.medium 1 2,00
c7g.large 2 4,00
c7g.xlarge 4 8,00
c7g.2xlarge 8 16,00
c7g.4xlarge 16 32,00
c7g.8xlarge 32 64,00
c7g.12xlarge 48 96,00
c7g.16xlarge 64 128,00
c7g.metal 64 128,00
cc2.8xlarge 32 60,50
hpc6a.48xlarge 96 384,00

Les instances optimisées pour le calcul utilisent les processeurs suivants.

Processeurs AWS Graviton
  • AWS Graviton2 : C6g, C6gd, C6gn

  • AWS Graviton3 : C7g

Processeurs AMD
  • Processeurs AMD EPYC de 2e génération (AMD EPYC 7R32) : C5a, C5ad

  • Processeurs AMD EPYC de 3e génération (AMD EPYC 7R13) : C6a, Hpc6a

Processeurs Intel
  • Processeur Intel Xeon Scalable (Haswell E5-2666 v3) : C4

  • Processeur Intel Xeon Scalable (Skylake 8124) : C5n

  • Processeur Intel Xeon Scalable (Skylake 8124M ou Cascade Lake 8223CL) : C5 et C5d plus petits

  • Processeur Intel Xeon Scalable de 2e génération (Cascade Lake 8275CL) : C5 et C5d plus grands

  • Processeur Intel Xeon Scalable de 3e génération (Ice Lake 8375C) : C6i, C6id

Pour plus d'informations, consultez Types d'instance Amazon EC2.

Performances de l'instance

Les instances optimisées EBS vous permettent d'obtenir régulièrement des performances élevées pour vos volumes EBS en éliminant les conflits entre les I/O Amazon EBS et tout autre trafic réseau de votre instance Certaines instances optimisées pour le calcul sont optimisées pour EBS par défaut sans frais supplémentaires. Pour plus d'informations, consultez instances optimisées pour Amazon EBS.

Certains types d'instances optimisés pour le calcul offrent la possibilité de contrôler les états « C-state » et « P-state » du processeur sous Linux. Les états « C-state » contrôlent les niveaux de veille d'un noyau lorsqu'il est inactif, tandis que les états « P-state » contrôlent les performances attendues d'un noyau (en termes de fréquence d'UC). Pour plus d'informations, consultez Contrôle des états du processeur pour votre instance EC2.

Performances réseau

Vous pouvez activer la mise en réseau améliorée sur les types d'instance pris en charge pour fournir des latences plus faibles, une instabilité moindre sur le réseau et des performances de débit en paquets par seconde (PPS) plus élevées. La plupart des applications ne nécessitent pas en permanence un haut niveau de performances réseau, mais peuvent tirer profit d'un accès à une bande passante accrue lorsqu'elles envoient ou reçoivent des données. Pour plus d'informations, consultez Réseaux améliorés sur Linux.

Vous trouverez ci-dessous un résumé des performances réseau relatives aux instances optimisées pour le calcul qui prennent en charge la mise en réseau améliorée.

Type d'instance Bande passante de référence (Gbit/s) Bande passante de rafale (Gbit/s) Fonctionnalités de mise en réseau améliorées
c1.medium 0.3 1.2 Non pris en charge
c1.xlarge 1.0 10,0 Non pris en charge
c3.large 0.5 1.2 Non pris en charge
c3.xlarge 0.7 10,0 Non pris en charge
c3.2xlarge 1.0 10,0 Non pris en charge
c3.4xlarge 2.0 10,0 Non pris en charge
c3.8xlarge 5.0 10,0 Non pris en charge
c4.large 0,625 1.2 Non pris en charge
c4.xlarge 1,25 2,8 Non pris en charge
c4.2xlarge 2,5 10,0 Non pris en charge
c4.4xlarge 5.0 10,0 Non pris en charge
c4.8xlarge 5.0 10,0 Non pris en charge
c5.large 0.75 10,0 ENA
c5.xlarge 1,25 10,0 ENA
c5.2xlarge 2,5 10,0 ENA
c5.4xlarge 5.0 10,0 ENA
c5.9xlarge 12,0 - ENA
c5.12xlarge 12,0 - ENA
c5.18xlarge 25.0 - ENA
c5.24xlarge 25.0 - ENA
c5.metal 25.0 - ENA
c5a.large 0.75 10,0 ENA
c5a.xlarge 1,25 10,0 ENA
c5a.2xlarge 2,5 10,0 ENA
c5a.4xlarge 5.0 10,0 ENA
c5a.8xlarge 10,0 - ENA
c5a.12xlarge 12,0 - ENA
c5a.16xlarge 20.0 - ENA
c5a.24xlarge 20.0 - ENA
c5ad.large 0.75 10,0 ENA
c5ad.xlarge 1,25 10,0 ENA
c5ad.2xlarge 2,5 10,0 ENA
c5ad.4xlarge 5.0 10,0 ENA
c5ad.8xlarge 10,0 - ENA
c5ad.12xlarge 12,0 - ENA
c5ad.16xlarge 20.0 - ENA
c5ad.24xlarge 20.0 - ENA
c5d.large 0.75 10,0 ENA
c5d.xlarge 1,25 10,0 ENA
c5d.2xlarge 2,5 10,0 ENA
c5d.4xlarge 5.0 10,0 ENA
c5d.9xlarge 12,0 - ENA
c5d.12xlarge 12,0 - ENA
c5d.18xlarge 25.0 - ENA
c5d.24xlarge 25.0 - ENA
c5d.metal 25.0 - ENA
c5n.large 3.0 25.0 ENA
c5n.xlarge 5.0 25.0 ENA
c5n.2xlarge 10,0 25.0 ENA
c5n.4xlarge 15,0 25.0 ENA
c5n.9xlarge 50.0 - ENA | EFA
c5n.18xlarge 100.0 - ENA | EFA
c5n.metal 100.0 - ENA | EFA
c6a.large 0,781 12,5 ENA
c6a.xlarge 1,562 12,5 ENA
c6a.2xlarge 3,125 12,5 ENA
c6a.4xlarge 6,25 12,5 ENA
c6a.8xlarge 12,5 - ENA
c6a.12xlarge 18,75 - ENA
c6a.16xlarge 25.0 - ENA
c6a.24xlarge 37,5 - ENA
c6a.32xlarge 50.0 - ENA
c6a.48xlarge 50.0 - ENA | EFA
c6a.metal 50.0 - ENA | EFA
c6g.medium 0.5 10,0 ENA
c6g.large 0.75 10,0 ENA
c6g.xlarge 1,25 10,0 ENA
c6g.2xlarge 2,5 10,0 ENA
c6g.4xlarge 5.0 10,0 ENA
c6g.8xlarge 12,0 - ENA
c6g.12xlarge 20.0 - ENA
c6g.16xlarge 25.0 - ENA
c6g.metal 25.0 - ENA
c6gd.medium 0.5 10,0 ENA
c6gd.large 0.75 10,0 ENA
c6gd.xlarge 1,25 10,0 ENA
c6gd.2xlarge 2,5 10,0 ENA
c6gd.4xlarge 5.0 10,0 ENA
c6gd.8xlarge 12,0 - ENA
c6gd.12xlarge 20.0 - ENA
c6gd.16xlarge 25.0 - ENA
c6gd.metal 25.0 - ENA
c6gn.medium 1.6 16,0 ENA
c6gn.large 3.0 25.0 ENA
c6gn.xlarge 6.3 25.0 ENA
c6gn.2xlarge 12,5 25.0 ENA
c6gn.4xlarge 15,0 25.0 ENA
c6gn.8xlarge 50.0 - ENA
c6gn.12xlarge 75.0 - ENA
c6gn.16xlarge 100.0 - ENA | EFA
c6i.large 0,781 12,5 ENA
c6i.xlarge 1,562 12,5 ENA
c6i.2xlarge 3,125 12,5 ENA
c6i.4xlarge 6,25 12,5 ENA
c6i.8xlarge 12,5 - ENA
c6i.12xlarge 18,75 - ENA
c6i.16xlarge 25.0 - ENA
c6i.24xlarge 37,5 - ENA
c6i.32xlarge 50.0 - ENA | EFA
c6i.metal 50.0 - ENA | EFA
c6id.large 0,781 12,5 ENA
c6id.xlarge 1,562 12,5 ENA
c6id.2xlarge 3,125 12,5 ENA
c6id.4xlarge 6,25 12,5 ENA
c6id.8xlarge 12,5 - ENA
c6id.12xlarge 18,75 - ENA
c6id.16xlarge 25.0 - ENA
c6id.24xlarge 37,5 - ENA
c6id.32xlarge 50.0 - ENA | EFA
c6id.metal 50.0 - ENA | EFA
c6in.large 3,125 25.0 ENA
c6in.xlarge 6,25 30.0 ENA
c6in.2xlarge 12,5 40,0 ENA
c6in.4xlarge 25.0 50.0 ENA
c6in.8xlarge 50.0 - ENA
c6in.12xlarge 75.0 - ENA
c6in.16xlarge 100.0 - ENA
c6in.24xlarge 150.0 - ENA
c6in.32xlarge 400,0 - ENA | EFA
c7g.medium 0,52 12,5 ENA
c7g.large 0,937 12,5 ENA
c7g.xlarge 1,876 12,5 ENA
c7g.2xlarge 3,75 15,0 ENA
c7g.4xlarge 7,5 15,0 ENA
c7g.8xlarge 15,0 - ENA
c7g.12xlarge 22,5 - ENA
c7g.16xlarge 30.0 - ENA | EFA
c7g.metal 30.0 - ENA | EFA
hpc6a.48xlarge 100.0 - ENA | EFA

† Ces instances ont une bande passante de base et peuvent utiliser un mécanisme de crédit d'I/O réseau pour dépasser leur bande passante de base dans la mesure du possible. Pour plus d'informations, consultez Bande passante réseau d'instance.

Performances d'E/S Amazon EBS

Les instances optimisées Amazon EBS utilisent une pile de configuration optimisée et fournissent une capacité supplémentaire et dédiée aux E/S Amazon EBS. Cette optimisation offre les meilleures performances pour vos volumes Amazon EBS en minimisant les conflits entre les E/S Amazon EBS et les autres trafics de votre instance.

Pour de plus amples informations, veuillez consulter instances optimisées pour Amazon EBS.

Performances d'E/S du volume de stockage d'instances basé sur un SSD

Si vous utilisez une AMI Linux avec un noyau de version 4.4 ou ultérieure et que vous utilisez tous les volumes de stockage d'instances basés sur SSD disponibles pour votre instance, vous pouvez obtenir les performances d'IOPS (taille de bloc de 4 096 octets) répertoriées dans le tableau suivant (lorsque la profondeur de la file d'attente est saturée). Sinon, vous obtenez des performances d'IOPS inférieures.

Taille d'instance IOPS en lecture aléatoires 100 % IOPS en écriture
c5ad.large 16 283 7 105
c5ad.xlarge 32 566 14 211
c5ad.2xlarge 65 132 28 421
c5ad.4xlarge 130 263 56 842
c5ad.8xlarge 260 526 113 684
c5ad.12xlarge 412 500 180 000
c5ad.16xlarge 521 053 227 368
c5ad.24xlarge 825 000 360 000
c5d.large 20 000 9 000
c5d.xlarge 40 000 18 000
c5d.2xlarge 80 000 37 000
c5d.4xlarge 175 000 75 000
c5d.9xlarge 350 000 170 000
c5d.12xlarge 700 000 340 000
c5d.18xlarge 700 000 340 000
c5d.24xlarge 1 400 000 680 000
c5d.metal 1 400 000 680 000
c6gd.medium 13 438 5 625
c6gd.large 26 875 11 250
c6gd.xlarge 53 750 22 500
c6gd.2xlarge 107 500 45 000
c6gd.4xlarge 215 000 90 000
c6gd.8xlarge 430 000 180 000
c6gd.12xlarge 645 000 270 000
c6gd.16xlarge 860 000 360 000
c6gd.metal 860 000 360 000
c6id.large 33 542 16 771
c6id.xlarge 67 083 33 542
c6id.2xlarge 134 167 67 084
c6id.4xlarge 268 333 134 167
c6id.8xlarge 536 666 268 334
c6id.12xlarge 804 999 402 501
c6id.16xlarge 1 073 332 536 668
c6id.24xlarge 1 609 998 805 002
c6id.32xlarge 2 146 664 1 073 336
c6id.metal 2 146 664 1 073 336

Au fur et à mesure que vous remplissez les volumes de stockage d'instances basés sur SSD pour votre instance, le nombre d'IOPS en écriture que vous pouvez obtenir diminue. Ceci est dû au travail supplémentaire que le contrôleur SSD doit effectuer pour trouver de l'espace disponible, réécrire les données existantes et effacer l'espace non utilisé pour le rendre réinscriptible. Ce processus de nettoyage de la mémoire se traduit par une amplification d'écriture interne sur le disque SSD, exprimée sous la forme du rapport des opérations d'écriture SSD sur les opérations d'écriture utilisateur. Cette diminution des performances est encore plus importante si les opérations d'écriture ne sont pas exprimées en multiples de 4 096 octets ou ne sont pas alignées sur une limite de 4 096 octets. Si vous écrivez une quantité d'octets plus faible ou des octets qui ne sont pas alignés, le contrôleur SSD doit lire les données environnantes et stocker le résultat dans un nouvel emplacement. Ce modèle se traduit par une forte augmentation de l'amplification d'écriture, une latence accrue et une diminution considérable des performances d'I/O.

Les contrôleurs SSD peuvent utiliser plusieurs stratégies pour réduire l'impact de l'amplification d'écriture. Une telle stratégie consiste à réserver un espace dans le stockage d'instance SSD afin que le contrôleur puisse gérer efficacement l'espace disponible pour les opérations d'écriture. Cette solution est appelée sur-approvisionnement. Les volumes de stockage d'instances SSD fournis à une instance n'ont pas d'espace réservé pour le sur-approvisionnement. Pour réduire l'amplification d'écriture, nous vous conseillons de laisser 10 % du volume non partitionné que le contrôleur SSD pourra utiliser pour le sur-approvisionnement. Cela diminue le stockage que vous pouvez utiliser, mais augmente les performances même si le disque est proche de sa capacité maximale.

Pour les volumes de stockage d'instances qui prennent en charge TRIM, vous pouvez utiliser la commande TRIM pour informer le contrôleur SSD lorsque vous n'avez plus besoin des données que vous avez écrites. Cela fournit au contrôleur plus d'espace disponible, ce qui peut réduire l'amplification d'écriture et augmenter les performances. Pour de plus amples informations, veuillez consulter Prise en charge de TRIM sur les volumes de stockage d'instance.

Notes de mise à jour

  • Les instances C4 et les instances basées sur le système Nitro nécessitent des AMIs HVM 64 bits basées sur EBS. Elles sont dotées d'une mémoire élevée et un système d'exploitation 64 bits est nécessaire pour tirer parti de cette capacité. Les AMI HVM offrent des performances supérieures par rapport aux AMI paravirtuelles (PV) sur les types d'instance à mémoire élevée. De plus, vous devez utiliser une AMI HVM pour tirer parti de la mise en réseau améliorée.

  • Les instances C7g sont alimentées par la dernière génération de processeurs AWS Graviton 3. Ils offrent jusqu'à 25 % de meilleures performances par rapport à la sixième génération d'instances C6G basées sur AWS Graviton 2. Les instances C7g sont les premières du cloud à disposer de mémoire DDR5, qui offre une bande passante mémoire 50 % plus élevée par rapport à la mémoire DDR4 pour permettre un accès rapide aux données en mémoire.

    • Les instances C7g limitent le taux d'exécution agrégé des instructions à haute puissance telles que les multiplications en virgule flottante accumulées sur tous les cœurs d'une instance. Les futurs types d'instances axés sur d'autres segments de charge de travail peuvent ne pas être soumis à cette restriction

  • Les instances reposant sur le système Nitro présentent les exigences suivantes :

    Les AMI Linux suivantes répondent aux critères suivants :

    • Amazon Linux 2

    • AMI Amazon Linux 2018.03

    • Ubuntu 14.04 ou une version ultérieure avec noyau linux-aws

      Note

      Les types d'instances basés sur AWS Graviton nécessitent Ubuntu 18.04 ou une version ultérieure avec noyau linux-aws

    • Red Hat Enterprise Linux 7.4 ou une version ultérieure

    • SUSE Linux Enterprise Server 12 SP2 ou une version ultérieure

    • CentOS 7.4.1708 ou une version ultérieure

    • FreeBSD 11.1 ou une version ultérieure

    • Debian GNU/Linux 9 ou une version ultérieure

  • Les instances dotées de processeurs AWS Graviton présentent les exigences suivantes :

    • Utiliser une AMI pour l'architecture Arm 64 bits.

    • Prendre en charge le démarrage via UEFI avec les tables ACPI, ainsi que l'insertion à chaud ACPI des périphériques PCI.

    Les AMI suivantes répondent aux critères suivants :

    • Amazon Linux 2 (Arm 64 bits)

    • Ubuntu 16.04 ou une version ultérieure (Arm 64 bits)

    • Red Hat Enterprise Linux 8.0 ou une version ultérieure (Arm 64 bits)

    • SUSE Linux Enterprise Server 15 ou version ultérieure (Arm 64 bits)

    • Debian 10 ou une version ultérieure (Arm 64 bits)

  • Pour obtenir les meilleures performances de vos instances C6i, assurez-vous qu'elles disposent d'un pilote ENA version 2.2.9 ou ultérieure. L'utilisation d'un pilote ENA antérieur à la version 1.2 avec ces instances provoque des échecs d'attachement interface réseau. Les images AMI suivantes ont un pilote ENA compatible.

    • Amazon Linux 2 avec noyau 4.14.186

    • Ubuntu 20.04 avec noyau 5.4.0-1025-aws

    • Red Hat Enterprise Linux 8.3 avec noyau 4.18.0-240.1.1.EL8_3.arch

    • SUSE Linux Enterprise Server 15 SP2 avec noyau 5.3.18-24.15.1

  • Les instances reposant sur les instances basées sur le système Nitro prennent en charge un maximum de 28 attachements, y compris les interfaces réseau, les volumes EBS et les volumes de stockage d'instances NVMe. Pour plus d'informations, consultez Limites de volume du système Nitro.

  • Pour obtenir les meilleures performances de vos instances C6gn, assurez-vous qu'elles disposent d'un pilote ENA version 2.2.9 ou ultérieure. L'utilisation d'un pilote ENA antérieur à la version 1.2 avec ces instances provoque des échecs d'attachement interface réseau. Les images AMI suivantes ont un pilote ENA compatible.

    • Amazon Linux 2 avec noyau 4.14.186

    • Ubuntu 20.04 avec noyau 5.4.0-1025-aws

    • Red Hat Enterprise Linux 8.3 avec noyau 4.18.0-240.1.1.EL8_3.arch

    • SUSE Linux Enterprise Server 15 SP2 avec noyau 5.3.18-24.15.1

  • Pour lancer des AMI pour toutes les distributions Linux sur des instances C6gn, utilisez les AMI de dernière version et exécutez une mise à jour pour le dernier pilote. Pour les versions antérieures, téléchargez le dernier pilote à partir de GitHub.

  • Le lancement d'une instance en matériel nu démarre le serveur sous-jacent, qui inclut la vérification de tous les composants du matériel et du microprogramme. Cela signifie que 20 minutes peuvent s'écouler entre le moment où l'instance passe à l'état d'exécution et le moment où elle devient disponible sur le réseau.

  • Attacher ou détacher des volumes EBS ou des interfaces réseau secondaires à partir d'une instance en matériel nu requiert la prise en charge de l'enfichage à chaud natif de PCIe. Amazon Linux 2 et les dernières versions de l'AMI Amazon Linux prennent en charge l'enfichage à chaud natif de PCIe, ce qui n'est pas le cas des versions antérieures. Vous devez activer les options de configuration suivantes du noyau Linux :

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Les instances en matériel nu utilisent un périphérique série basé sur PCI plutôt qu'un périphérique série basé sur le port d'I/O. Le noyau Linux kernel en amont et les dernières AMI Amazon Linux prennent en charge ce périphérique. Les instances en matériel nu fournissent également un tableau SPCR ACPI afin de permettre au système d'utiliser automatiquement le périphérique série basé sur PCI. Les dernières AMI Windows utilisent automatiquement le périphérique série basé sur PCI.

  • acpid doit être installé sur les instances reposant sur le système Nitro afin que ces instances prennent en charge les fermetures nettes via les demandes d'API.

  • Le nombre total d'instances que vous pouvez lancer dans une région est soumis à une limite, et il existe des limites supplémentaires sur certains types d'instances. Pour plus d'informations, consultez Combien d'instances est-il possible d'exécuter dans Amazon EC2 ? dans les questions fréquentes Amazon EC2.