Amazon Elastic Compute Cloud
Guide de l'utilisateur pour les instances Linux

Instances de mémoire optimisée

Les instances à mémoire optimisée sont conçues pour garantir des performances rapides pour les charges de travail qui traitent de larges volumes de données en mémoire.

Instances R4, R5, R5a, R5ad et R5d

Ces instances conviennent parfaitement aux applications suivantes :

  • Bases de données relationnelles (MySQL) et NoSQL (MongoDB, Cassandra) hautes performances.

  • Magasins de cache web distribués à l'échelle du web qui fournissent la mise en cache en mémoire des données de type clé-valeur (Memcached et Redis).

  • Bases de données en mémoire utilisant les formats de stockage de données optimisés et l'analyse pour l'aide à la décision (par exemple, SAP HANA).

  • Applications exécutant le traitement en temps réel des données non structurées volumineuses (services financiers, clusters Hadoop/Spark).

  • Applications de calcul haute performance (HPC) et d'automatisation de la conception électronique (EDA).

Les instances r5.metal et r5d.metal offrent à vos applications un accès direct aux ressources physiques du serveur hôte, telles que les processeurs et la mémoire. Ces instances conviennent à ce qui suit :

  • Charges de travail nécessitant un accès à des fonctions matérielles de bas niveau (Intel VT, par exemple) qui ne sont pas disponibles ou entièrement prises en charge dans les environnements virtualisés

  • Applications nécessitant un environnement non virtualisé pour des questions de licence ou d'assistance

Pour plus d'informations, consultez Instances R5 Amazon EC2.

Instances à mémoire élevée

Les instances à mémoire élevée (u-6tb1.metal, u-9tb1.metal, and u-12tb1.metal) offrent 6 Tio, 9 Tio et 12 Tio de mémoire par instance. Ces instances sont conçues pour exécuter des bases de données en mémoire volumineuses, y compris les installations de production installations de SAP HANA. Elles offrent des performances bare metal avec accès direct au matériel hôte.

Instances X1

Ces instances conviennent parfaitement aux applications suivantes :

  • Bases de données en mémoire telles que SAP HANA, y compris le support certifié SAP pour Business Suite S/4HANA, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) et Data Mart Solutions on HANA. Pour plus d'informations, consultez SAP HANA sur le Cloud AWS.

  • Moteurs de traitement Big Data, tels que Apache Spark ou Presto.

  • Applications de calcul haute performance (HPC).

Pour plus d'informations, consultez Instances X1 Amazon EC2.

Instances X1e

Ces instances conviennent parfaitement aux applications suivantes :

  • Bases de données hautes performances.

  • Bases de données en mémoire telles que SAP HANA. Pour plus d'informations, consultez SAP HANA sur le Cloud AWS.

  • Applications d'entreprise nécessitant beaucoup de mémoire.

Pour plus d'informations, consultez Instances X1e Amazon EC2.

Instances z1d

Ces instances offrent des performances de calcul et de mémoire élevées, et conviennent parfaitement aux applications suivantes :

  • CAO Eléctronique (EDA)

  • Charges de travail de base de données relationnelle

Les instances z1d.metal offrent à vos applications un accès direct aux ressources physiques du serveur hôte, telles que les processeurs et la mémoire. Ces instances conviennent à ce qui suit :

  • Charges de travail nécessitant un accès à des fonctions matérielles de bas niveau (Intel VT, par exemple) qui ne sont pas disponibles ou entièrement prises en charge dans les environnements virtualisés

  • Applications nécessitant un environnement non virtualisé pour des questions de licence ou d'assistance

Pour plus d'informations, consultez Instances z1d Amazon EC2.

Spécifications matérielles

Vous trouverez ci-dessous un résumé des spécifications matérielles relatives aux instances optimisées pour la mémoire.

Type d'instance vCPU par défaut Mémoire (Gio)
r4.large 2 15,25
r4.xlarge 4 30,5
r4.2xlarge 8 61
r4.4xlarge 16 122
r4.8xlarge 32 244
r4.16xlarge 64 488
r5.large 2 16
r5.xlarge 4 32
r5.2xlarge 8 64
r5.4xlarge 16 128
r5.12xlarge 48 384
r5.24xlarge 96 768
r5.metal 96 768
r5a.large 2 16
r5a.xlarge 4 32
r5a.2xlarge 8 64
r5a.4xlarge 16 128
r5a.12xlarge 48 384
r5a.24xlarge 96 768
r5ad.large 2 16
r5ad.xlarge 4 32
r5ad.2xlarge 8 64
r5ad.4xlarge 16 128
r5ad.12xlarge 48 384
r5ad.24xlarge 96 768
r5d.large 2 16
r5d.xlarge 4 32
r5d.2xlarge 8 64
r5d.4xlarge 16 128
r5d.12xlarge 48 384
r5d.24xlarge 96 768
r5d.metal 96 768
u-6tb1.metal 448 * 6 144
u-9tb1.metal 448 * 9 216
u-12tb1.metal 448 * 12 288
x1.16xlarge 64 976
x1.32xlarge 128 1 952
x1e.xlarge 4 122
x1e.2xlarge 8 244
x1e.4xlarge 16 488
x1e.8xlarge 32 976
x1e.16xlarge 64 1 952
x1e.32xlarge 128 3 904
z1d.large 2 16
z1d.xlarge 4 32
z1d.2xlarge 8 64
z1d.3xlarge 12 96
z1d.6xlarge 24 192
z1d.12xlarge 48 384
z1d.metal 48 384

* Chaque processeur logique est un hyperthread sur 224 cœurs.

Pour plus d'informations sur les spécifications matérielles pour chaque type d'instance Amazon EC2, consultez la page Types d'instance Amazon EC2.

Pour plus d'informations sur la spécification des options d'UC, consultez Optimisations des options d'UC.

Performances de la mémoire

Les instances X1 comprennent des tampons de mémoire Intel scalables​​qui fournissent 300 Gio/s de bande passante de mémoire durable en lecture et 140 Gio/s de bande passante de mémoire durable en écriture.

Pour plus d'informations sur le volume de mémoire RAM qu'il est possible d'activer pour les instances optimisées pour la mémoire, consultez Spécifications matérielles.

Les instances à mémoire optimisée sont dotées d'une mémoire élevée et nécessitent des AMI HVM 64 bits pour tirer parti de cette capacité. Les AMI HVM offrent des performances supérieures par rapport aux AMI paravirtuelles (PV) sur les instances optimisées pour la mémoire. Pour plus d'informations, consultez Types de virtualisation AMI Linux.

Performances des instances

Les instances R4 comportent jusqu'à 64 vCPU et sont dotées de deux processeurs Intel Xeon AWS basés sur E5-2686v4 qui disposent d'une bande passante à mémoire élevée et de caches L3 plus étendus pour accroître les performances des applications en mémoire.

Les instances X1 et X1e comportent jusqu'à 128 vCPU et sont dotées de quatre processeurs Intel Xeon E7-8880 v3 qui disposent d'une bande passante à mémoire élevée et de caches L3 plus étendus pour accroître les performances des applications en mémoire.

Les instances à mémoire élevée (u-6tb1.metal, u-9tb1.metal, and u-12tb1.metal) sont les premières instances alimentées par une plateforme à 8 sockets avec les processeurs Intel Xeon Platinum 8176M (Skylake) de dernière génération optimisés pour des charges de travail critiques de l'entreprise.

Les instances à mémoire optimisée améliorent les performances de chiffrement grâce à la dernière fonction Intel AES-NI et prennent en charge les extensions de synchronisation transactionnelle (TSX) Intel pour améliorer les performances du traitement des données transactionnelles en mémoire, ainsi que les instructions de processeur Advanced Vector Extensions 2 (Intel AVX2) pour étendre la plupart des commandes entières à 256 bits.

Certaines instances à mémoire optimisée offrent la possibilité de contrôler les états C et les états P du processeur sur Linux. Les états C-states contrôlent les niveaux de veille d'un noyau lorsqu'il est inactif, tandis que les états P-states contrôlent les performances attendues d'un noyau (mesurées grâce à la fréquence d'UC). Pour plus d'informations, consultez Contrôle des états du processeur pour votre instance EC2.

Performances réseau

Vous pouvez activer les fonctionnalités de mise en réseau améliorée sur les types d'instance pris en charge. La mise en réseau améliorée fournit des performances de débit en paquets par seconde (PPS) nettement plus élevées, une instabilité réseau moindre et des latences réduites. Pour plus d'informations, consultez Mise en réseau améliorée sur Linux.

Les types d'instance qui utilisent Elastic Network Adapter (ENA) pour la mise en réseau améliorée fournissent des performances élevées de débit en paquets par seconde avec des latences régulièrement faibles. La plupart des applications ne nécessitent pas en permanence un haut niveau de performances réseau, mais peuvent tirer profit d'un accès à une bande passante accrue lorsqu'elles envoient ou reçoivent des données. Les tailles d'instance qui utilisent ENA et sont documentées avec des performances réseau pouvant atteindre 10 Gb/s ou 25 Gb/s utilisent un mécanisme de crédit d'E/S réseau pour allouer la bande passante réseau aux instances en fonction de l'utilisation moyenne de la bande passante. Ces instances accumulent des crédits lorsque la bande passante du réseau est inférieure à leurs limites de référence et peuvent les utiliser quand elles effectuent les transferts de données réseau.

Vous trouverez ci-dessous un résumé des performances réseau relatives aux instances optimisées pour la mémoire qui prennent en charge la mise en réseau améliorée.

Type d'instance Performances réseau Mise en réseau améliorée

r4.4xlarge et tailles inférieures | r5.4xlarge et tailles inférieures | r5a.4xlarge et tailles inférieures | r5ad.4xlarge et tailles inférieures | r5d.4xlarge et tailles inférieures | x1e.8large et tailles inférieures | z1d.3xlarge et tailles inférieures

Jusqu'à 10 Gbit/s

ENA

r4.8xlarge | r5.12xlarge | r5a.12xlarge | r5ad.12xlarge | r5d.12xlarge | x1.16xlarge | x1e.16xlarge | z1d.6xlarge

10 Gb/s

ENA

r5a.24xlarge | r5ad.24xlarge

20 Gb/s

ENA

r4.16xlarge | r5.24xlarge | r5.metal | r5d.24xlarge | r5d.metal | u-6tb1.metal | u-9tb1.metal | u-12tb1.metal | x1.32xlarge | x1e.32xlarge | z1d.12xlarge | z1d.metal

25 Gb/s

ENA

Performances d'E/S sur SSD

Si vous utilisez une AMI Linux avec un noyau de version 4.4 ou ultérieure et que vous utilisez tous les volumes de stockage d'instance basés sur SSD disponibles pour votre instance, vous pouvez obtenir les performances d'IOPS (taille de bloc de 4 096 octets) répertoriées dans le tableau suivant (lorsque la profondeur de la file d'attente est saturée). Sinon, vous obtenez des performances d'I/O inférieures.

Taille d'instance E/S par seconde en lecture aléatoires 100 % E/S par seconde en écriture

r5ad.large *

30 000

15 000 USD

r5ad.xlarge *

59 000

29 000

r5ad.2xlarge *

117 000

57 000

r5ad.4xlarge *

234 000

114 000

r5ad.12xlarge

700 000

340 000

r5ad.24xlarge

1 400 000

680 000

r5d.large *

30 000

15 000 USD

r5d.xlarge *

59 000

29 000

r5d.2xlarge *

117 000

57 000

r5d.4xlarge *

234 000

114 000

r5d.12xlarge

700 000

340 000

r5d.24xlarge

1 400 000

680 000

r5d.metal

1 400 000

680 000

z1d.large *

30 000

15 000 USD

z1d.xlarge *

59 000

29 000

z1d.2xlarge *

117 000

57 000

z1d.3xlarge *

175 000

75 000

z1d.6xlarge

350 000

170 000

z1d.12xlarge

700 000

340 000

z1d.metal

700 000

340 000

* Pour ces instances, vous pouvez obtenir la performance spécifiée.

Au fur et à mesure que vous remplissez les volumes de stockage d'instance basés sur SSD pour votre instance, le nombre d'E/S en écriture que vous pouvez obtenir diminue. Ceci est dû au travail supplémentaire que le contrôleur SSD doit effectuer pour trouver de l'espace disponible, réécrire les données existantes et effacer l'espace non utilisé pour le rendre réinscriptible. Ce processus de nettoyage de la mémoire se traduit par une amplification d'écriture interne sur le disque SSD, exprimée sous la forme du rapport des opérations d'écriture SSD sur les opérations d'écriture utilisateur. Cette diminution des performances est encore plus importante si les opérations d'écriture ne sont pas exprimées en multiples de 4 096 octets ou ne sont pas alignées sur une limite de 4 096 octets. Si vous écrivez une quantité d'octets plus faible ou des octets qui ne sont pas alignés, le contrôleur SSD doit lire les données environnantes et stocker le résultat dans un nouvel emplacement. Ce modèle se traduit par une forte augmentation de l'amplification d'écriture, une latence accrue et une diminution considérable des performances d'E/S.

Les contrôleurs SSD peuvent utiliser plusieurs stratégies pour réduire l'impact de l'amplification d'écriture. Une telle stratégie consiste à réserver un espace dans le stockage d'instance SSD afin que le contrôleur puisse gérer efficacement l'espace disponible pour les opérations d'écriture. Cette solution est appelée sur-approvisionnement. Les volumes de stockage d'instance SSD fournis à une instance n'ont pas d'espace réservé pour le sur-approvisionnement. Pour réduire l'amplification d'écriture, nous vous conseillons de laisser 10 % du volume non partitionné que le contrôleur SSD pourra utiliser pour le sur-approvisionnement. Cela diminue le stockage que vous pouvez utiliser, mais augmente les performances même si le disque est proche de sa capacité maximale.

Pour les volumes de stockage d'instance qui prennent en charge TRIM, vous pouvez utiliser la commande TRIM pour informer le contrôleur SSD lorsque vous n'avez plus besoin des données que vous avez écrites. Cela fournit au contrôleur plus d'espace disponible, ce qui peut réduire l'amplification d'écriture et augmenter les performances. Pour plus d'informations, consultez Prise en charge de TRIM sur les volumes de stockage d'instance.

Fonctionnalités des instances

Voici un résumé des fonctions pour les instances à mémoire optimisée :

EBS uniquement EBS NVMe Stockage d'instance Groupe de placement

R4

Oui

Non

Non

Oui

R5

Oui

Oui

Non

Oui

R5a

Oui

Oui

Non

Oui

R5ad

Non

Oui

NVME *

Oui

R5d

Non

Oui

NVME *

Oui

u-6tb1.metal

Oui

Oui

Non

Non

u-9tb1.metal

Oui

Oui

Non

Non

u-12tb1.metal

Oui

Oui

Non

Non

X1

Non

Non

SSD

Oui

X1e

Non

Non

SSD *

Oui

z1d

Non

Oui

NVME *

Oui

* Le volume du périphérique racine doit être un volume Amazon EBS.

Pour plus d'informations, consultez les ressources suivantes :

Prise en charge de processeurs virtuels

Les instances à mémoire optimisée offrent un grand nombre de processeurs virtuels, ce qui peut entraîner des problèmes de lancement avec les systèmes d'exploitation dont la limite de processeurs virtuels est inférieure. Il est fortement recommandé d'utiliser les dernières AMI lors du lancement d'instances à mémoire optimisée.

Les AMI suivantes prennent en charge le lancement des instances à mémoire optimisée :

  • Amazon Linux 2 (HVM)

  • Amazon Linux AMI 2016.03 (HVM) ou version ultérieure

  • Ubuntu Server 14.04 LTS (HVM)

  • Red Hat Enterprise Linux 7.1 (HVM)

  • SUSE Linux Enterprise Server 12 SP1 (HVM)

  • Windows Server 2019

  • Windows Server 2016

  • Windows Server 2012 R2

  • Windows Server 2012

  • Windows Server 2008 R2 64 bits

  • Windows Server 2008 SP2 64 bits

Notes de mise à jour

  • Les instances R5 et R5d utilisent un processeur Intel Xeon Platinum 8000 à 3,1 GHz.

  • Les instances R5a et R5ad utilisent un processeur AMD EPYC 7000 à 2,5 GHz.

  • Les exigences pour les instances à mémoire élevée, R5, R5a, R5ad, R5d et z1d sont les suivantes :

    Les AMI suivantes répondent aux critères suivants :

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03

    • Ubuntu 14.04 ou version ultérieure

    • Red Hat Enterprise Linux 7.4 ou version ultérieure

    • SUSE Linux Enterprise Server 12 SP2 ou version ultérieure

    • CentOS 7 ou version ultérieure

    • FreeBSD 11.1 ou version ultérieure

  • Les instances R5, R5a, R5ad et R5d prennent en charge un maximum de 28 attachements, y compris les interfaces réseau, les volumes EBS et les volumes de stockage d'instance NVMe. Chaque instance possède au moins un attachement d'interface réseau. Si, par exemple, vous ne possédez pas d'interfaces réseau supplémentaires attachées sur une instance EBS uniquement, vous pouvez alors y attacher 27 volumes EBS.

  • Le lancement d'une instance en matériel nu démarre le serveur sous-jacent, qui inclut la vérification de tous les composants du matériel et du microprogramme. Cela signifie que 20 minutes peuvent s'écouler entre le moment où l'instance passe à l'état d'exécution et le moment où elle devient disponible sur le réseau.

  • Attacher ou détacher des volumes EBS ou des interfaces réseau secondaires à partir d'une instance en matériel nu requiert la prise en charge de l'enfichage à chaud natif de PCIe. Amazon Linux 2 et les dernières versions de l'Amazon Linux AMI prennent en charge l'enfichage à chaud natif de PCIe, ce qui n'est pas le cas des versions antérieures. Vous devez activer les options de configuration suivantes du noyau Linux :

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Les instances en matériel nu utilisent un périphérique série basé sur PCI plutôt qu'un périphérique série basé sur le port d'E/S. Le noyau Linux kernel en amont et les dernières AMI Amazon Linux prennent en charge ce périphérique. Les instances en matériel nu fournissent également un tableau SPCR ACPI afin de permettre au système d'utiliser automatiquement le périphérique série basé sur PCI. Les dernières AMI Windows utilisent automatiquement le périphérique série basé sur PCI.

  • Vous ne pouvez pas lancer d'instances X1 à l'aide d'une AMI Windows Server 2008 SP2 64 bits, sauf pour les instances x1.16xlarge.

  • Vous ne pouvez pas lancer d'instances X1e à l'aide d'une AMI Windows Server 2008 SP2 64 bits.

  • Vous ne pouvez pas lancer d'instances r4.large et r4.4xlarge à l'aide des versions précédentes de l'AMI Windows Server 2008 R2 64 bits. Si vous rencontrez ce problème, vous devez mettre à jour vers la dernière version de cette AMI.

  • Le nombre total d'instances que vous pouvez lancer dans une région est soumis à une limite, de même qu'il existe des limites supplémentaires pour certains types d'instance. Pour plus d'informations, consultez Combien d'instances puis-je exécuter dans Amazon EC2 ?. Pour demander une augmentation des limites, utilisez le formulaire de demande d'instance Amazon EC2.