instances de mémoire optimisée - Amazon Elastic Compute Cloud

instances de mémoire optimisée

Les instances à mémoire optimisée sont conçues pour garantir des performances rapides pour les charges de travail qui traitent de larges volumes de données en mémoire.

instances R5, R5a, R5b et R5n

Ces instances conviennent à ce qui suit :

  • Bases de données relationnelles hautes performances, dont MySQL et NoSQL, par exemple MongoDB et Cassandra.

  • Magasins de cache distribués à l'échelle du web qui fournissent la mise en cache en mémoire des données de type clé-valeur, par exemple Memcached et Redis

  • Bases de données en mémoire utilisant les formats de stockage de données optimisés et l'analyse pour l'aide à la décision ; par exemple, SAP HANA

  • Applications exécutant le traitement en temps réel des données non structurées volumineuses, à l'aide des clusters Hadoop et Spark

  • Applications de calcul haute performance (HPC) et d'Electronic Design Automation (EDA).

Les instances de matériel nu, comme r5.metal, offrent à vos applications un accès direct aux ressources physiques du serveur hôte, comme les processeurs et la mémoire.

Pour plus d'informations, consultez Instances R5 Amazon EC2.

Instances R6a

Ces instances sont idéales pour exécuter des charges de travail gourmandes en mémoire, telles que les suivantes :

  • Bases de données hautes performances, à la fois relationnelles et NoSQL

  • Caches en mémoire distribués à l'échelle du web, tels que Memcached et Redis

  • Analytique des données big data en temps réel, telles que les clusters Hadoop et Spark

Instances Hpc6id

Ces instances sont idéales pour exécuter des charges de travail de calcul haute performance (HPC), telles que les suivantes :

  • Séismique et réservoir

  • Simulation de collisions

  • Analyse d'éléments finis

Instances R6g et R6gd

Ces instances sont alimentées par des processeurs AWS Graviton2 et sont idéales pour exécuter des charges de travail gourmandes en mémoire, telles que les suivantes :

  • Bases de données open source ; par exemple, MySQL, MariaDB et PostgreSQL

  • Caches en mémoire ; par exemple, Memcached, Redis et KeyDB

Les instances de matériel nu, comme r6g.metal, offrent à vos applications un accès direct aux ressources physiques du serveur hôte, comme les processeurs et la mémoire.

Pour plus d'informations, consultez Instances Amazon EC2 R6g.

Instances R6i et R6id

Ces instances sont idéales pour exécuter des charges de travail gourmandes en mémoire, telles que les suivantes :

  • Bases de données hautes performances, relationnelles et NoSQL

  • Bases de données en mémoire, par exemple SAP HANA

  • Caches en mémoire distribués à l'échelle du web, pr exemple Memcached et Redis

  • Analytique des données big data en temps réel, dont les clusters Hadoop et Spark

Instances R6in et R6idn

Ces instances conviennent parfaitement aux charges de travail gourmandes en réseau telles que :

  • Bases de données hautes performances, MySQL et NoSQL. Par exemple, les bases de données MongoDB et Cassandra

  • Magasins de cache web distribués à l'échelle du web qui fournissent la mise en cache en mémoire des données de type clé-valeur, dont Memcached et Redis

  • Bases de données en mémoire utilisant les formats de stockage de données optimisés et l'analyse pour l'aide à la décision, par exemple SAP HANA

  • Analyse des données big data en temps réel pour les services financiers, par exemple les clusters Hadoop et Spark

Pour plus d'informations, consultez Instances R6i Amazon EC2.

instances à mémoire élevée (u-*)

Les instances à mémoire élevée offrent 3 Tio, 6 Tio, 9 Tio, 12 Tio, 18 Tio et 24 Tio de mémoire par instance. Elles sont conçues pour exécuter d'importantes bases de données en mémoire, notamment des environnements de production de la base de données en mémoire SAP HANA.

Pour plus d'informations, consultez Instances à mémoire élevée Amazon EC2 et Configuration du stockage pour SAP HANA. Pour plus d'informations sur les systèmes d'exploitation pris en charge, consultez Migration de SAP HANA sur AWS vers une instance à mémoire élevée EC2.

instances X1

Ces instances conviennent à ce qui suit :

  • Bases de données en mémoire telles que SAP HANA, y compris le support certifié SAP pour Business Suite S/4HANA, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) et Data Mart Solutions on HANA. Pour plus d'informations, consultez SAP HANA sur le Cloud AWS.

  • Moteurs de traitement Big Data, tels que Apache Spark ou Presto.

  • Applications de calcul haute performance (HPC).

Pour plus d'informations, consultez Instances X1 Amazon EC2.

instances X1e

Ces instances conviennent à ce qui suit :

  • Bases de données hautes performances.

  • Bases de données en mémoire telles que SAP HANA. Pour plus d'informations, consultez SAP HANA sur le Cloud AWS.

  • Applications d'entreprise nécessitant beaucoup de mémoire.

Pour plus d'informations, consultez Instances X1e Amazon EC2.

instances X2gd

Ces instances conviennent à ce qui suit :

  • Bases de données en mémoire, telles que Redis et Memcached.

  • Bases de données relationnelles, telles que MySQL et PostGreSQL.

  • Charges de travail Electronic Design Automation (EDA), telles que la vérification physique et les outils de mise en page.

  • Charges de travail exigeantes en mémoire, telles que les serveurs d'analyse en temps réel et de mise en cache en temps réel.

Pour plus d'informations, consultez Instances X2g Amazon EC2.

Instances X2idn, X2iedn et X2iezn

Ces instances conviennent à ce qui suit :

  • Bases de données en mémoire, telles que Redis et Memcached.

  • Bases de données relationnelles, telles que MySQL et PostGreSQL.

  • Charges de travail Electronic Design Automation (EDA), telles que la vérification physique et les outils de mise en page.

  • Charges de travail exigeantes en mémoire, telles que les serveurs d'analyse en temps réel et de mise en cache en temps réel.

Les volumes Block Express io2 sont pris en charge uniquement par les instances X2idn et X2iedn. Tous les volumes io2 attachés à des instances X2idn et X2iedn, pendant ou après le lancement, s'exécutent automatiquement sur EBS Block Express. Pour plus d'informations, consultez volumes Block Express io2.

Pour plus d'informations, consultez Instances X2i Amazon EC2.

instances z1d

Ces instances offrent des performances de calcul et de mémoire élevées, et conviennent parfaitement à ce qui suit :

  • Electronic Design Automation(EDA)

  • Charges de travail de base de données relationnelle

Les instances z1d.metal offrent à vos applications un accès direct aux ressources physiques du serveur hôte, telles que les processeurs et la mémoire.

Pour plus d'informations, consultez Instances z1d Amazon EC2.

Spécifications matérielles

Vous trouverez ci-dessous un résumé des spécifications matérielles relatives aux instances optimisées pour la mémoire. Une unité de traitement centralisée virtuelle (vCPU) représente une partie de l'UC physique affectée à une machine virtuelle (VM). Pour les instances x86, il existe deux vCPUs par cœur. Pour les instances Graviton, il existe un vCPU par cœur.

Type d'instance vCPU par défaut Mémoire (Gio)
cr1.8xlarge 32 243,76
hpc6id.32xlarge 64 1024,00
r3.large 2 15,00
r3.xlarge 4 30,50
r3.2xlarge 8 61,00
r3.4xlarge 16 122,00
r3.8xlarge 32 244,00
r4.large 2 15,25
r4.xlarge 4 30,50
r4.2xlarge 8 61,00
r4.4xlarge 16 122,00
r4.8xlarge 32 244,00
r4.16xlarge 64 488,00
r5.large 2 16,00
r5.xlarge 4 32,00
r5.2xlarge 8 64,00
r5.4xlarge 16 128,00
r5.8xlarge 32 256,00
r5.12xlarge 48 384,00
r5.16xlarge 64 512,00
r5.24xlarge 96 768,00
r5.metal 96 768,00
r5a.large 2 16,00
r5a.xlarge 4 32,00
r5a.2xlarge 8 64,00
r5a.4xlarge 16 128,00
r5a.8xlarge 32 256,00
r5a.12xlarge 48 384,00
r5a.16xlarge 64 512,00
r5a.24xlarge 96 768,00
r5ad.large 2 16,00
r5ad.xlarge 4 32,00
r5ad.2xlarge 8 64,00
r5ad.4xlarge 16 128,00
r5ad.8xlarge 32 256,00
r5ad.12xlarge 48 384,00
r5ad.16xlarge 64 512,00
r5ad.24xlarge 96 768,00
r5b.large 2 16,00
r5b.xlarge 4 32,00
r5b.2xlarge 8 64,00
r5b.4xlarge 16 128,00
r5b.8xlarge 32 256,00
r5b.12xlarge 48 384,00
r5b.16xlarge 64 512,00
r5b.24xlarge 96 768,00
r5b.metal 96 768,00
r5d.large 2 16,00
r5d.xlarge 4 32,00
r5d.2xlarge 8 64,00
r5d.4xlarge 16 128,00
r5d.8xlarge 32 256,00
r5d.12xlarge 48 384,00
r5d.16xlarge 64 512,00
r5d.24xlarge 96 768,00
r5d.metal 96 768,00
r5dn.large 2 16,00
r5dn.xlarge 4 32,00
r5dn.2xlarge 8 64,00
r5dn.4xlarge 16 128,00
r5dn.8xlarge 32 256,00
r5dn.12xlarge 48 384,00
r5dn.16xlarge 64 512,00
r5dn.24xlarge 96 768,00
r5dn.metal 96 768,00
r5n.large 2 16,00
r5n.xlarge 4 32,00
r5n.2xlarge 8 64,00
r5n.4xlarge 16 128,00
r5n.8xlarge 32 256,00
r5n.12xlarge 48 384,00
r5n.16xlarge 64 512,00
r5n.24xlarge 96 768,00
r5n.metal 96 768,00
r6a.large 2 16,00
r6a.xlarge 4 32,00
r6a.2xlarge 8 64,00
r6a.4xlarge 16 128,00
r6a.8xlarge 32 256,00
r6a.12xlarge 48 384,00
r6a.16xlarge 64 512,00
r6a.24xlarge 96 768,00
r6a.32xlarge 128 1024,00
r6a.48xlarge 192 1536,00
r6a.metal 192 1536,00
r6g.medium 1 8,00
r6g.large 2 16,00
r6g.xlarge 4 32,00
r6g.2xlarge 8 64,00
r6g.4xlarge 16 128,00
r6g.8xlarge 32 256,00
r6g.12xlarge 48 384,00
r6g.16xlarge 64 512,00
r6g.metal 64 512,00
r6gd.medium 1 8,00
r6gd.large 2 16,00
r6gd.xlarge 4 32,00
r6gd.2xlarge 8 64,00
r6gd.4xlarge 16 128,00
r6gd.8xlarge 32 256,00
r6gd.12xlarge 48 384,00
r6gd.16xlarge 64 512,00
r6gd.metal 64 512,00
r6i.large 2 16,00
r6i.xlarge 4 32,00
r6i.2xlarge 8 64,00
r6i.4xlarge 16 128,00
r6i.8xlarge 32 256,00
r6i.12xlarge 48 384,00
r6i.16xlarge 64 512,00
r6i.24xlarge 96 768,00
r6i.32xlarge 128 1024,00
r6i.metal 128 1024,00
r6idn.large 2 16,00
r6idn.xlarge 4 32,00
r6idn.2xlarge 8 64,00
r6idn.4xlarge 16 128,00
r6idn.8xlarge 32 256,00
r6idn.12xlarge 48 384,00
r6idn.16xlarge 64 512,00
r6idn.24xlarge 96 768,00
r6idn.32xlarge 128 1024,00
r6in.large 2 16,00
r6in.xlarge 4 32,00
r6in.2xlarge 8 64,00
r6in.4xlarge 16 128,00
r6in.8xlarge 32 256,00
r6in.12xlarge 48 384,00
r6in.16xlarge 64 512,00
r6in.24xlarge 96 768,00
r6in.32xlarge 128 1024,00
r6id.large 2 16,00
r6id.xlarge 4 32,00
r6id.2xlarge 8 64,00
r6id.4xlarge 16 128,00
r6id.8xlarge 32 256,00
r6id.12xlarge 48 384,00
r6id.16xlarge 64 512,00
r6id.24xlarge 96 768,00
r6id.32xlarge 128 1024,00
r6id.metal 128 1024,00
r7g.medium 1 8,00
r7g.large 2 16,00
r7g.xlarge 4 32,00
r7g.2xlarge 8 64,00
r7g.4xlarge 16 128,00
r7g.8xlarge 32 256,00
r7g.12xlarge 48 384,00
r7g.16xlarge 64 512,00
r7g.metal 64 512,00
u-3tb1.56xlarge 224 3072,00
u-6tb1.56xlarge 224 6144,00
u-6tb1.112xlarge 448 6144,00
u-6tb1.metal 448 6144,00
u-9tb1.112xlarge 448 9216,00
u-9tb1.metal 448 9216,00
u-12tb1.112xlarge 448 12288,00
u-12tb1.metal 448 12288,00
u-18tb1.metal 448 18432,00
u-24tb1.metal 448 24576,00
x1.16xlarge 64 976,00
x1.32xlarge 128 1952,00
x2gd.medium 1 16,00
x2gd.large 2 32,00
x2gd.xlarge 4 64,00
x2gd.2xlarge 8 128,00
x2gd.4xlarge 16 256,00
x2gd.8xlarge 32 512,00
x2gd.12xlarge 48 768,00
x2gd.16xlarge 64 1024,00
x2gd.metal 64 1024,00
x2idn.16xlarge 64 1024,00
x2idn.24xlarge 96 1536,00
x2idn.32xlarge 128 2048,00
x2idn.metal 128 2048,00
x2iedn.xlarge 4 128,00
x2iedn.2xlarge 8 256,00
x2iedn.4xlarge 16 512,00
x2iedn.8xlarge 32 1024,00
x2iedn.16xlarge 64 2048,00
x2iedn.24xlarge 96 3072,00
x2iedn.32xlarge 128 4096,00
x2iedn.metal 128 4096,00
x2iezn.2xlarge 8 256,00
x2iezn.4xlarge 16 512,00
x2iezn.6xlarge 24 768,00
x2iezn.8xlarge 32 1024,00
x2iezn.12xlarge 48 1536,00
x2iezn.metal 48 1536,00
x1e.xlarge 4 122,00
x1e.2xlarge 8 244,00
x1e.4xlarge 16 488,00
x1e.8xlarge 32 976,00
x1e.16xlarge 64 1952,00
x1e.32xlarge 128 3904,00
z1d.large 2 16,00
z1d.xlarge 4 32,00
z1d.2xlarge 8 64,00
z1d.3xlarge 12 96,00
z1d.6xlarge 24 192,00
z1d.12xlarge 48 384,00
z1d.metal 48 384,00

* Chaque processeur logique est un hyperthread sur 224 cœurs.

Les instances optimisées pour la mémoire utilisent les processeurs suivants.

Processeurs AWS Graviton
  • AWS Graviton2 : R6g, R6gd, X2gd

Processeurs AMD
  • Processeurs AMD EPYC série 7000 (AMD EPYC 7571) : R5a, R5ad

  • Processeurs de troisième génération (AMD EPYC 7R13) : troisième génération R6a

Processeurs Intel
  • Processeur Intel Xeon Scalable (Haswell E7-8880 v3) : X1, X1e

  • Processeur Intel Xeon Scalable (Broadwell E5-2686 v4) : R4

  • Processeur Intel Xeon Scalable (Skylake 8151) : z1d

  • Processeur Intel Xeon Scalable (Skylake 8175M ou Cascade Lake 8259CL) : R5, R5d

  • Processeur Intel Xeon Scalable de 2e génération (Cascade Lake 8259CL) : R5b, R5n

  • Processeur Intel Xeon Scalable de 2e génération (Cascade Lake 8252C) : X2iezn

  • Processeur Intel Xeon Scalable de 3e génération (Ice Lake 8375C) : R6i, R6id, X2idn, X2iedn

Pour plus d'informations, consultez Types d'instance Amazon EC2.

Performances de la mémoire

Les instances X1 intègrent les tampons de mémoire Intel Scalable, qui fournissent 300 Go/s de bande passante de mémoire durable en lecture et 140 Go/s de bande passante de mémoire durable en écriture.

Pour plus d'informations sur le volume de mémoire RAM qu'il est possible d'activer pour les instances optimisées pour la mémoire, consultez Spécifications matérielles.

Les instances à mémoire optimisée sont dotées d'une mémoire élevée et nécessitent des AMI HVM 64 bits pour tirer parti de cette capacité. Les AMI HVM offrent des performances supérieures par rapport aux AMI paravirtuelles (PV) sur les instances optimisées pour la mémoire. Pour plus d'informations, consultez Types de virtualisation AMI Linux.

Performances de l'instance

Les instances à mémoire optimisée améliorent les performances de chiffrement grâce à la dernière fonction Intel AES-NI et exécutent les instructions de processeur Advanced Vector Extensions 2 (Intel AVX2) pour étendre la plupart des commandes entières à 256 bits.

Certaines instances à mémoire optimisée offrent la possibilité de contrôler les états « C-state » et les états « P-state » du processeur sur Linux. Les états « C-state » contrôlent les niveaux de veille d'un noyau lorsqu'il est inactif, tandis que les états « P-state » contrôlent les performances attendues d'un noyau (mesurées grâce à la fréquence d'UC). Pour plus d'informations, consultez Contrôle des états du processeur pour votre instance EC2.

Performances réseau

Vous pouvez activer la mise en réseau améliorée sur les types d'instance pris en charge pour fournir des latences plus faibles, une instabilité moindre sur le réseau et des performances de débit en paquets par seconde (PPS) plus élevées. La plupart des applications ne nécessitent pas en permanence un haut niveau de performances réseau, mais peuvent tirer profit d'un accès à une bande passante accrue lorsqu'elles envoient ou reçoivent des données. Pour plus d'informations, consultez Réseaux améliorés sur Linux.

Vous trouverez ci-dessous un résumé des performances réseau relatives aux instances optimisées pour la mémoire qui prennent en charge la mise en réseau améliorée.

Type d'instance Bande passante de référence (Gbit/s) Bande passante de rafale (Gbit/s) Fonctionnalités de mise en réseau améliorées
hpc6id.32xlarge 400,0 - ENA | EFA
r3.large 0.5 1.2 Non pris en charge
r3.xlarge 0.7 2,8 Non pris en charge
r3.2xlarge 1.0 10,0 Non pris en charge
r3.4xlarge 2.0 10,0 Non pris en charge
r3.8xlarge 5.0 10,0 Non pris en charge
r4.large 0.75 10,0 ENA
r4.xlarge 1,25 10,0 ENA
r4.2xlarge 2,5 10,0 ENA
r4.4xlarge 5.0 10,0 ENA
r4.8xlarge 12,0 - ENA
r4.16xlarge 25.0 - ENA
r5.large 0.75 10,0 ENA
r5.xlarge 1,25 10,0 ENA
r5.2xlarge 2,5 10,0 ENA
r5.4xlarge 5.0 10,0 ENA
r5.8xlarge 10,0 - ENA
r5.12xlarge 12,0 - ENA
r5.16xlarge 20.0 - ENA
r5.24xlarge 25.0 - ENA
r5.metal 25.0 - ENA
r5a.large 0.75 10,0 ENA
r5a.xlarge 1,25 10,0 ENA
r5a.2xlarge 2,5 10,0 ENA
r5a.4xlarge 5.0 10,0 ENA
r5a.8xlarge 7,5 10,0 ENA
r5a.12xlarge 10,0 - ENA
r5a.16xlarge 12,0 - ENA
r5a.24xlarge 20.0 - ENA
r5ad.large 0.75 10,0 ENA
r5ad.xlarge 1,25 10,0 ENA
r5ad.2xlarge 2,5 10,0 ENA
r5ad.4xlarge 5.0 10,0 ENA
r5ad.8xlarge 7,5 10,0 ENA
r5ad.12xlarge 10,0 - ENA
r5ad.16xlarge 12,0 - ENA
r5ad.24xlarge 20.0 - ENA
r5b.large 0.75 10,0 ENA
r5b.xlarge 1,25 10,0 ENA
r5b.2xlarge 2,5 10,0 ENA
r5b.4xlarge 5.0 10,0 ENA
r5b.8xlarge 10,0 - ENA
r5b.12xlarge 12,0 - ENA
r5b.16xlarge 20.0 - ENA
r5b.24xlarge 25.0 - ENA
r5b.metal 25.0 - ENA
r5d.large 0.75 10,0 ENA
r5d.xlarge 1,25 10,0 ENA
r5d.2xlarge 2,5 10,0 ENA
r5d.4xlarge 5.0 10,0 ENA
r5d.8xlarge 10,0 - ENA
r5d.12xlarge 12,0 - ENA
r5d.16xlarge 20.0 - ENA
r5d.24xlarge 25.0 - ENA
r5d.metal 25.0 - ENA
r5dn.large 2.1 25.0 ENA
r5dn.xlarge 4.1 25.0 ENA
r5dn.2xlarge 8,125 25.0 ENA
r5dn.4xlarge 16,25 25.0 ENA
r5dn.8xlarge 25.0 - ENA
r5dn.12xlarge 50.0 - ENA
r5dn.16xlarge 75.0 - ENA
r5dn.24xlarge 100.0 - ENA | EFA
r5dn.metal 100.0 - ENA | EFA
r5n.large 2.1 25.0 ENA
r5n.xlarge 4.1 25.0 ENA
r5n.2xlarge 8,125 25.0 ENA
r5n.4xlarge 16,25 25.0 ENA
r5n.8xlarge 25.0 - ENA
r5n.12xlarge 50.0 - ENA
r5n.16xlarge 75.0 - ENA
r5n.24xlarge 100.0 - ENA | EFA
r5n.metal 100.0 - ENA | EFA
r6a.large 0,781 12,5 ENA
r6a.xlarge 1,562 12,5 ENA
r6a.2xlarge 3,125 12,5 ENA
r6a.4xlarge 6,25 12,5 ENA
r6a.8xlarge 12,5 - ENA
r6a.12xlarge 18,75 - ENA
r6a.16xlarge 25.0 - ENA
r6a.24xlarge 37,5 - ENA
r6a.32xlarge 50.0 - ENA
r6a.48xlarge 50.0 - ENA | EFA
r6a.metal 50.0 - ENA | EFA
r6g.medium 0.5 10,0 ENA
r6g.large 0.75 10,0 ENA
r6g.xlarge 1,25 10,0 ENA
r6g.2xlarge 2,5 10,0 ENA
r6g.4xlarge 5.0 10,0 ENA
r6g.8xlarge 12,0 - ENA
r6g.12xlarge 20.0 - ENA
r6g.16xlarge 25.0 - ENA
r6g.metal 25.0 - ENA
r6gd.medium 0.5 10,0 ENA
r6gd.large 0.75 10,0 ENA
r6gd.xlarge 1,25 10,0 ENA
r6gd.2xlarge 2,5 10,0 ENA
r6gd.4xlarge 5.0 10,0 ENA
r6gd.8xlarge 12,0 - ENA
r6gd.12xlarge 20.0 - ENA
r6gd.16xlarge 25.0 - ENA
r6gd.metal 25.0 - ENA
r6i.large 0,781 12,5 ENA
r6i.xlarge 1,562 12,5 ENA
r6i.2xlarge 3,125 12,5 ENA
r6i.4xlarge 6,25 12,5 ENA
r6i.8xlarge 12,5 - ENA
r6i.12xlarge 18,75 - ENA
r6i.16xlarge 25.0 - ENA
r6i.24xlarge 37,5 - ENA
r6i.32xlarge 50.0 - ENA | EFA
r6i.metal 50.0 - ENA | EFA
r6idn.large 3,125 25.0 ENA
r6idn.xlarge 6,25 30.0 ENA
r6idn.2xlarge 12,5 40,0 ENA
r6idn.4xlarge 25.0 50.0 ENA
r6idn.8xlarge 50.0 - ENA
r6idn.12xlarge 75.0 - ENA
r6idn.16xlarge 100.0 - ENA
r6idn.24xlarge 150.0 - ENA
r6idn.32xlarge 400,0 - ENA | EFA
r6in.large 3,125 25.0 ENA
r6in.xlarge 6,25 30.0 ENA
r6in.2xlarge 12,5 40,0 ENA
r6in.4xlarge 25.0 50.0 ENA
r6in.8xlarge 50.0 - ENA
r6in.12xlarge 75.0 - ENA
r6in.16xlarge 100.0 - ENA
r6in.24xlarge 150.0 - ENA
r6in.32xlarge 400,0 - ENA | EFA
r6id.large 0,781 12,5 ENA
r6id.xlarge 1,562 12,5 ENA
r6id.2xlarge 3,125 12,5 ENA
r6id.4xlarge 6,25 12,5 ENA
r6id.8xlarge 12,5 - ENA
r6id.12xlarge 18,75 - ENA
r6id.16xlarge 25.0 - ENA
r6id.24xlarge 37,5 - ENA
r6id.32xlarge 50.0 - ENA | EFA
r6id.metal 50.0 - ENA | EFA
r7g.medium 0,52 12,5 ENA
r7g.large 0,937 12,5 ENA
r7g.xlarge 1,876 12,5 ENA
r7g.2xlarge 3,75 15,0 ENA
r7g.4xlarge 7,5 15,0 ENA
r7g.8xlarge 15,0 - ENA
r7g.12xlarge 22,5 - ENA
r7g.16xlarge 30.0 - ENA | EFA
r7g.metal 30.0 - ENA | EFA
u-3tb1.56xlarge 50.0 - ENA
u-6tb1.56xlarge 100.0 - ENA
u-6tb1.112xlarge 100.0 - ENA
u-6tb1.metal 100.0 - ENA
u-9tb1.112xlarge 100.0 - ENA
u-9tb1.metal 100.0 - ENA
u-12tb1.112xlarge 100.0 - ENA
u-12tb1.metal 100.0 - ENA
u-18tb1.metal 100.0 - ENA
u-24tb1.metal 100.0 - ENA
x1.16xlarge 12,0 - ENA
x1.32xlarge 25.0 - ENA
x2gd.medium 0.5 10,0 ENA
x2gd.large 0.75 10,0 ENA
x2gd.xlarge 1,25 10,0 ENA
x2gd.2xlarge 2,5 10,0 ENA
x2gd.4xlarge 5.0 10,0 ENA
x2gd.8xlarge 12,0 - ENA
x2gd.12xlarge 20.0 - ENA
x2gd.16xlarge 25.0 - ENA
x2gd.metal 25.0 - ENA
x2idn.16xlarge 50.0 - ENA
x2idn.24xlarge 75.0 - ENA
x2idn.32xlarge 100.0 - ENA | EFA
x2idn.metal 100.0 - ENA | EFA
x2iedn.xlarge 1,875 25.0 ENA
x2iedn.2xlarge 5.0 25.0 ENA
x2iedn.4xlarge 12,5 25.0 ENA
x2iedn.8xlarge 25.0 - ENA
x2iedn.16xlarge 50.0 - ENA
x2iedn.24xlarge 75.0 - ENA
x2iedn.32xlarge 100.0 - ENA | EFA
x2iedn.metal 100.0 - ENA | EFA
x2iezn.2xlarge 12,5 25.0 ENA
x2iezn.4xlarge 15,0 25.0 ENA
x2iezn.6xlarge 50.0 - ENA
x2iezn.8xlarge 75.0 - ENA
x2iezn.12xlarge 100.0 - ENA | EFA
x2iezn.metal 100.0 - ENA | EFA
x1e.xlarge 0,625 10,0 ENA
x1e.2xlarge 1,25 10,0 ENA
x1e.4xlarge 2,5 10,0 ENA
x1e.8xlarge 5.0 10,0 ENA
x1e.16xlarge 12,0 - ENA
x1e.32xlarge 25.0 - ENA
z1d.large 0.75 10,0 ENA
z1d.xlarge 1,25 10,0 ENA
z1d.2xlarge 2,5 10,0 ENA
z1d.3xlarge 5.0 10,0 ENA
z1d.6xlarge 12,0 - ENA
z1d.12xlarge 25.0 - ENA
z1d.metal 25.0 - ENA

Les instances u-6tb1.metal, u-9tb1.metal et u-12tb1.metal lancées après le 12 mars 2020 fournissent des performances réseau de 100 Gbit/s. Les instances u-6tb1.metal, u-9tb1.metal et u-12tb1.metal lancées avant le 12 mars 2020 ne peuvent fournir que des performances réseau de 25 Gbit/s. Pour vous assurer que les instances lancées avant le 12 mars 2020 ont une performance réseau de 100 Gbit/s, contactez votre équipe de compte pour mettre à niveau votre instance sans frais supplémentaires.

† Ces instances ont une bande passante de base et peuvent utiliser un mécanisme de crédit d'I/O réseau pour dépasser leur bande passante de base dans la mesure du possible. Pour plus d'informations, consultez Bande passante réseau d'instance.

Performances d'E/S Amazon EBS

Les instances optimisées Amazon EBS utilisent une pile de configuration optimisée et fournissent une capacité supplémentaire et dédiée aux E/S Amazon EBS. Cette optimisation offre les meilleures performances pour vos volumes Amazon EBS en minimisant les conflits entre les E/S Amazon EBS et les autres trafics de votre instance.

Pour de plus amples informations, veuillez consulter instances optimisées pour Amazon EBS.

Performances d'E/S du volume de stockage d'instances basé sur un SSD

Si vous utilisez une AMI Linux avec un noyau de version 4.4 ou ultérieure et que vous utilisez tous les volumes de stockage d'instances basés sur SSD disponibles pour votre instance, vous pouvez obtenir les performances d'IOPS (taille de bloc de 4 096 octets) répertoriées dans le tableau suivant (lorsque la profondeur de la file d'attente est saturée). Sinon, vous obtenez des performances d'IOPS inférieures.

Taille d'instance IOPS en lecture aléatoires 100 % IOPS en écriture
hpc6id.32xlarge 2 146 664 1 073 336
r5ad.large 30 000 15 000
r5ad.xlarge 59 000 29 000
r5ad.2xlarge 117 000 57 000
r5ad.4xlarge 234 000 114 000
r5ad.8xlarge 466 666 233 333
r5ad.12xlarge 700 000 340 000
r5ad.16xlarge 933 333 466 666
r5ad.24xlarge 1 400 000 680 000
r5d.large 30 000 15 000
r5d.xlarge 59 000 29 000
r5d.2xlarge 117 000 57 000
r5d.4xlarge 234 000 114 000
r5d.8xlarge 466 666 233 333
r5d.12xlarge 700 000 340 000
r5d.16xlarge 933 333 466 666
r5d.24xlarge 1 400 000 680 000
r5d.metal 1 400 000 680 000
r5dn.large 30 000 15 000
r5dn.xlarge 59 000 29 000
r5dn.2xlarge 117 000 57 000
r5dn.4xlarge 234 000 114 000
r5dn.8xlarge 466 666 233 333
r5dn.12xlarge 700 000 340 000
r5dn.16xlarge 933 333 466 666
r5dn.24xlarge 1 400 000 680 000
r5dn.metal 1 400 000 680 000
r6id.metal 3 219 995 1 610 005
r6gd.medium 13 438 5 625
r6gd.large 26 875 11 250
r6gd.xlarge 53 750 22 500
r6gd.2xlarge 107 500 45 000
r6gd.4xlarge 215 000 90 000
r6gd.8xlarge 430 000 180 000
r6gd.12xlarge 645 000 270 000
r6gd.16xlarge 860 000 360 000
r6gd.metal 860 000 360 000
r6id.large 33 542 16 771
r6id.xlarge 67 083 33 542
r6id.2xlarge 134 167 67 084
r6id.4xlarge 268 333 134 167
r6id.8xlarge 536 666 268 334
r6id.12xlarge 804 999 402 501
r6id.16xlarge 1 073 332 536 668
r6id.24xlarge 1 609 998 805 002
r6id.32xlarge 2 146 664 1 073 336
r6id.metal 2 146 664 1 073 336
r6idn.large 33 542 16 771
r6idn.xlarge 67 083 33 542
r6idn.2xlarge 134 167 67 084
r6idn.4xlarge 268 333 134 167
r6idn.8xlarge 536 666 268 334
r6idn.12xlarge 804 999 402 501
r6idn.16xlarge 1 073 332 536 668
r6idn.24xlarge 1 609 998 805 002
r6idn.32xlarge 2 146 664 1 073 336
x2gd.medium 13 438 5 625
x2gd.large 26 875 11 250
x2gd.xlarge 53 750 22 500
x2gd.2xlarge 107 500 45 000
x2gd.4xlarge 215 000 90 000
x2gd.8xlarge 430 000 180 000
x2gd.12xlarge 645 000 270 000
x2gd.16xlarge 860 000 360 000
x2gd.metal 860 000 360 000
x2idn.16xlarge 430 000 180 000
x2idn.24xlarge 645 000 270 000
x2idn.32xlarge 860 000 360 000
x2idn.metal 860 000 360 000
x2iedn.xlarge 26 875 11 250
x2iedn.2xlarge 53 750 22 500
x2iedn.4xlarge 107 500 45 000
x2iedn.8xlarge 215 000 90 000
x2iedn.16xlarge 430 000 180 000
x2iedn.24xlarge 645 000 270 000
x2iedn.32xlarge 860 000 360 000
x2iedn.metal 860 000 360 000
z1d.large 30 000 15 000
z1d.xlarge 59 000 29 000
z1d.2xlarge 117 000 57 000
z1d.3xlarge 175 000 75 000
z1d.6xlarge 350 000 170 000
z1d.12xlarge 700 000 340 000
z1d.metal 700 000 340 000

Au fur et à mesure que vous remplissez les volumes de stockage d'instances basés sur SSD pour votre instance, le nombre d'IOPS en écriture que vous pouvez obtenir diminue. Ceci est dû au travail supplémentaire que le contrôleur SSD doit effectuer pour trouver de l'espace disponible, réécrire les données existantes et effacer l'espace non utilisé pour le rendre réinscriptible. Ce processus de nettoyage de la mémoire se traduit par une amplification d'écriture interne sur le disque SSD, exprimée sous la forme du rapport des opérations d'écriture SSD sur les opérations d'écriture utilisateur. Cette diminution des performances est encore plus importante si les opérations d'écriture ne sont pas exprimées en multiples de 4 096 octets ou ne sont pas alignées sur une limite de 4 096 octets. Si vous écrivez une quantité d'octets plus faible ou des octets qui ne sont pas alignés, le contrôleur SSD doit lire les données environnantes et stocker le résultat dans un nouvel emplacement. Ce modèle se traduit par une forte augmentation de l'amplification d'écriture, une latence accrue et une diminution considérable des performances d'I/O.

Les contrôleurs SSD peuvent utiliser plusieurs stratégies pour réduire l'impact de l'amplification d'écriture. Une telle stratégie consiste à réserver un espace dans le stockage d'instance SSD afin que le contrôleur puisse gérer efficacement l'espace disponible pour les opérations d'écriture. Cette solution est appelée sur-approvisionnement. Les volumes de stockage d'instances SSD fournis à une instance n'ont pas d'espace réservé pour le sur-approvisionnement. Pour réduire l'amplification d'écriture, nous vous conseillons de laisser 10 % du volume non partitionné que le contrôleur SSD pourra utiliser pour le sur-approvisionnement. Cela diminue le stockage que vous pouvez utiliser, mais augmente les performances même si le disque est proche de sa capacité maximale.

Pour les volumes de stockage d'instances qui prennent en charge TRIM, vous pouvez utiliser la commande TRIM pour informer le contrôleur SSD lorsque vous n'avez plus besoin des données que vous avez écrites. Cela fournit au contrôleur plus d'espace disponible, ce qui peut réduire l'amplification d'écriture et augmenter les performances. Pour de plus amples informations, veuillez consulter Prise en charge de TRIM sur les volumes de stockage d'instance.

Prise en charge de processeurs virtuels

Les instances à mémoire optimisée offrent un grand nombre de processeurs virtuels, ce qui peut entraîner des problèmes de lancement avec les systèmes d'exploitation dont la limite de processeurs virtuels est inférieure. Il est fortement recommandé d'utiliser les dernières AMI lors du lancement d'instances à mémoire optimisée.

Les AMI suivantes prennent en charge le lancement des instances à mémoire optimisée :

  • Amazon Linux 2 (HVM)

  • Amazon Linux AMI 2016.03 (HVM) ou version ultérieure

  • Ubuntu Server 14.04 LTS (HVM)

  • Red Hat Enterprise Linux 7.1 (HVM)

  • SUSE Linux Enterprise Server 12 SP1 (HVM)

  • Windows Server 2019

  • Windows Server 2016

  • Windows Server 2012 R2

  • Windows Server 2012

  • Windows Server 2008 R2 64 bits

  • Windows Server 2008 SP2 64 bits

Notes de mise à jour

  • Les instances reposant sur le système Nitro présentent les exigences suivantes :

    Les AMI Linux suivantes répondent aux critères suivants :

    • Amazon Linux 2

    • AMI Amazon Linux 2018.03

    • Ubuntu 14.04 ou une version ultérieure avec noyau linux-aws

      Note

      Les types d'instances basés sur AWS Graviton nécessitent Ubuntu 18.04 ou une version ultérieure avec noyau linux-aws

    • Red Hat Enterprise Linux 7.4 ou une version ultérieure

    • SUSE Linux Enterprise Server 12 SP2 ou une version ultérieure

    • CentOS 7.4.1708 ou une version ultérieure

    • FreeBSD 11.1 ou une version ultérieure

    • Debian GNU/Linux 9 ou une version ultérieure

  • Les instances dotées de processeurs AWS Graviton présentent les exigences suivantes :

    • Utiliser une AMI pour l'architecture Arm 64 bits.

    • Prendre en charge le démarrage via UEFI avec les tables ACPI, ainsi que l'insertion à chaud ACPI des périphériques PCI.

    Les AMI suivantes répondent aux critères suivants :

    • Amazon Linux 2 (Arm 64 bits)

    • Ubuntu 16.04 ou une version ultérieure (Arm 64 bits)

    • Red Hat Enterprise Linux 8.0 ou une version ultérieure (Arm 64 bits)

    • SUSE Linux Enterprise Server 15 ou version ultérieure (Arm 64 bits)

    • Debian 10 ou une version ultérieure (Arm 64 bits)

  • Pour obtenir les meilleures performances de vos instances R6i, assurez-vous qu'elles disposent d'un pilote ENA version 2.2.9 ou ultérieure. L'utilisation d'un pilote ENA antérieur à la version 1.2 avec ces instances provoque des échecs d'attachement interface réseau. Les images AMI suivantes ont un pilote ENA compatible.

    • Amazon Linux 2 avec noyau 4.14.186

    • Ubuntu 20.04 avec noyau 5.4.0-1025-aws

    • Red Hat Enterprise Linux 8.3 avec noyau 4.18.0-240.1.1.EL8_3.arch

    • SUSE Linux Enterprise Server 15 SP2 avec noyau 5.3.18-24.15.1

  • Les instances reposant sur les instances basées sur le système Nitro prennent en charge un maximum de 28 attachements, y compris les interfaces réseau, les volumes EBS et les volumes de stockage d'instances NVMe. Pour de plus amples informations, veuillez consulter Limites de volume du système Nitro.

  • Tous les volumes io2 attachés à des instances C6in, C7g, M6in, M6idn, M7g, R5b, R6in, R6idn, R7g, Trn1, X2idn et X2iedn, pendant ou après le lancement, s'exécutent automatiquement sur EBS Block Express. Pour plus d'informations, consultez volumes Block Express io2.

  • Le lancement d'une instance en matériel nu démarre le serveur sous-jacent, qui inclut la vérification de tous les composants du matériel et du microprogramme. Cela signifie que 20 minutes peuvent s'écouler entre le moment où l'instance passe à l'état d'exécution et le moment où elle devient disponible sur le réseau.

  • Attacher ou détacher des volumes EBS ou des interfaces réseau secondaires à partir d'une instance en matériel nu requiert la prise en charge de l'enfichage à chaud natif de PCIe. Amazon Linux 2 et les dernières versions de l'AMI Amazon Linux prennent en charge l'enfichage à chaud natif de PCIe, ce qui n'est pas le cas des versions antérieures. Vous devez activer les options de configuration suivantes du noyau Linux :

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Les instances en matériel nu utilisent un périphérique série basé sur PCI plutôt qu'un périphérique série basé sur le port d'I/O. Le noyau Linux kernel en amont et les dernières AMI Amazon Linux prennent en charge ce périphérique. Les instances en matériel nu fournissent également un tableau SPCR ACPI afin de permettre au système d'utiliser automatiquement le périphérique série basé sur PCI. Les dernières AMI Windows utilisent automatiquement le périphérique série basé sur PCI.

  • Vous ne pouvez pas lancer d'instances X1 à l'aide d'une AMI Windows Server 2008 SP2 64 bits, sauf pour les instances x1.16xlarge.

  • Vous ne pouvez pas lancer d'instances X1e à l'aide d'une AMI Windows Server 2008 SP2 64 bits.

  • Vous ne pouvez pas lancer d'instances r4.large et r4.4xlarge à l'aide des versions précédentes de l'AMI Windows Server 2008 R2 64 bits. Si vous rencontrez ce problème, vous devez mettre à jour vers la dernière version de cette AMI.

  • Le nombre total d'instances que vous pouvez lancer dans une région est soumis à une limite, et il existe des limites supplémentaires sur certains types d'instances. Pour plus d'informations, consultez Combien d'instances est-il possible d'exécuter dans Amazon EC2 ? dans les questions fréquentes Amazon EC2.