Instances de mémoire optimisée - Amazon Elastic Compute Cloud

Instances de mémoire optimisée

Les instances à mémoire optimisée sont conçues pour garantir des performances rapides pour les charges de travail qui traitent de larges volumes de données en mémoire.

Instances R5, R5a et R5n

Ces instances conviennent à ce qui suit :

  • Bases de données relationnelles (MySQL) et NoSQL (MongoDB, Cassandra) hautes performances.

  • Magasins de cache web distribués à l'échelle du web qui fournissent la mise en cache en mémoire des données de type clé-valeur (Memcached et Redis).

  • Bases de données en mémoire utilisant les formats de stockage de données optimisés et l'analyse pour l'aide à la décision (par exemple, SAP HANA).

  • Applications exécutant le traitement en temps réel des données non structurées volumineuses (services financiers, clusters Hadoop/Spark).

  • Applications de calcul haute performance (HPC) et d'automatisation de la conception électronique (EDA).

Les instances de matériel nu, comme r5.metal, offrent à vos applications un accès direct aux ressources physiques du serveur hôte, comme les processeurs et la mémoire. Ces instances conviennent à ce qui suit :

  • Charges de travail nécessitant un accès à des fonctions matérielles de bas niveau (Intel VT, par exemple) qui ne sont pas disponibles ou entièrement prises en charge dans les environnements virtualisés

  • Applications nécessitant un environnement non virtualisé pour des questions de licence ou d'assistance

Pour plus d'informations, consultez Instances R5 Amazon EC2.

Instances à mémoire élevée

Les instances à mémoire élevée (u-6tb1.metal, u-9tb1.metal, u-12tb1.metal, u-18tb1.metal et u-24tb1.metal) offrent 6 Tio, 9 Tio, 12 Tio, 18 Tio et 24 Tio de mémoire par instance. Ces instances sont conçues pour exécuter d’importantes bases de données en mémoire, notamment des environnements de production de la base de données en mémoire SAP HANA, dans le Cloud. Elles offrent des performances bare metal avec accès direct au matériel hôte. Pour de plus amples informations, veuillez consulter Instances à mémoire élevée Amazon EC2 et Configuration du stockage pour SAP HANA.

Instances X1

Ces instances conviennent à ce qui suit :

  • Bases de données en mémoire telles que SAP HANA, y compris le support certifié SAP pour Business Suite S/4HANA, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) et Data Mart Solutions on HANA. Pour plus d'informations, consultez SAP HANA sur le Cloud AWS.

  • Moteurs de traitement Big Data, tels que Apache Spark ou Presto.

  • Applications de calcul haute performance (HPC).

Pour plus d'informations, consultez Instances X1 Amazon EC2.

Instances X1e

Ces instances conviennent à ce qui suit :

  • Bases de données hautes performances.

  • Bases de données en mémoire telles que SAP HANA. Pour plus d'informations, consultez SAP HANA sur le Cloud AWS.

  • Applications d'entreprise nécessitant beaucoup de mémoire.

Pour plus d'informations, consultez Instances X1e Amazon EC2.

Instances z1d

Ces instances offrent des performances de calcul et de mémoire élevées, et conviennent parfaitement à ce qui suit :

  • CAO Eléctronique (EDA)

  • Charges de travail de base de données relationnelle

Les instances z1d.metal offrent à vos applications un accès direct aux ressources physiques du serveur hôte, telles que les processeurs et la mémoire. Ces instances conviennent à ce qui suit :

  • Charges de travail nécessitant un accès à des fonctions matérielles de bas niveau (Intel VT, par exemple) qui ne sont pas disponibles ou entièrement prises en charge dans les environnements virtualisés

  • Applications nécessitant un environnement non virtualisé pour des questions de licence ou d'assistance

Pour plus d'informations, consultez Instances z1d Amazon EC2.

Spécifications matérielles

Vous trouverez ci-dessous un résumé des spécifications matérielles relatives aux instances optimisées pour la mémoire.

Type d'instance vCPU par défaut Mémoire (Gio)
r4.large 2 15,25
r4.xlarge 4 30,5
r4.2xlarge 8 61
r4.4xlarge 16 122
r4.8xlarge 32 244
r4.16xlarge 64 488
r5.large 2 16
r5.xlarge 4 32
r5.2xlarge 8 64
r5.4xlarge 16 128
r5.8xlarge 32 256
r5.12xlarge 48 384
r5.16xlarge 64 512
r5.24xlarge 96 768
r5.metal 96 768
r5a.large 2 16
r5a.xlarge 4 32
r5a.2xlarge 8 64
r5a.4xlarge 16 128
r5a.8xlarge 32 256
r5a.12xlarge 48 384
r5a.16xlarge 64 512
r5a.24xlarge 96 768
r5ad.large 2 16
r5ad.xlarge 4 32
r5ad.2xlarge 8 64
r5ad.4xlarge 16 128
r5ad.12xlarge 48 384
r5ad.24xlarge 96 768
r5d.large 2 16
r5d.xlarge 4 32
r5d.2xlarge 8 64
r5d.4xlarge 16 128
r5d.8xlarge 32 256
r5d.12xlarge 48 384
r5d.16xlarge 64 512
r5d.24xlarge 96 768
r5d.metal 96 768
r5dn.large 2 16
r5dn.xlarge 4 32
r5dn.2xlarge 8 64
r5dn.4xlarge 16 128
r5dn.8xlarge 32 256
r5dn.12xlarge 48 384
r5dn.16xlarge 64 512
r5dn.24xlarge 96 768
r5n.large 2 16
r5n.xlarge 4 32
r5n.2xlarge 8 64
r5n.4xlarge 16 128
r5n.8xlarge 32 256
r5n.12xlarge 48 384
r5n.16xlarge 64 512
r5n.24xlarge 96 768
u-6tb1.metal 448 * 6 144
u-9tb1.metal 448 * 9 216
u-12tb1.metal 448 * 12 288
u-18tb1.metal 448 * 18 432
u-24tb1.metal 448 * 24 576
x1.16xlarge 64 976
x1.32xlarge 128 1 952
x1e.xlarge 4 122
x1e.2xlarge 8 244
x1e.4xlarge 16 488
x1e.8xlarge 32 976
x1e.16xlarge 64 1 952
x1e.32xlarge 128 3 904
z1d.large 2 16
z1d.xlarge 4 32
z1d.2xlarge 8 64
z1d.3xlarge 12 96
z1d.6xlarge 24 192
z1d.12xlarge 48 384
z1d.metal 48 384

* Chaque processeur logique est un hyperthread sur 224 cœurs.

Pour de plus amples informations sur les spécifications matérielles pour chaque type d'instance Amazon EC2, veuillez consulter Types d'instance Amazon EC2.

Pour plus d'informations sur la spécification des options d'UC, consultez Optimisations des options d'UC.

Performances de la mémoire

Les instances X1 comprennent des tampons de mémoire Intel scalables​​qui fournissent 300 Gio/s de bande passante de mémoire durable en lecture et 140 Gio/s de bande passante de mémoire durable en écriture.

Pour plus d'informations sur le volume de mémoire RAM qu'il est possible d'activer pour les instances optimisées pour la mémoire, consultez Spécifications matérielles.

Les instances à mémoire optimisée sont dotées d'une mémoire élevée et nécessitent des AMI HVM 64 bits pour tirer parti de cette capacité. Les AMI HVM offrent des performances supérieures par rapport aux AMI paravirtuelles (PV) sur les instances optimisées pour la mémoire. Pour plus d'informations, consultez Types de virtualisation AMI Linux.

Performances de l'instance

Les instances R4 comportent jusqu'à 64 vCPU et sont dotées de deux processeurs Intel Xeon AWS basés sur E5-2686v4 qui disposent d'une bande passante à mémoire élevée et de caches L3 plus étendus pour accroître les performances des applications en mémoire.

Les instances X1 et X1e comportent jusqu'à 128 vCPU et sont dotées de quatre processeurs Intel Xeon E7-8880 v3 qui disposent d'une bande passante à mémoire élevée et de caches L3 plus étendus pour accroître les performances des applications en mémoire.

Les instances à mémoire élevée (u-6tb1.metal, u-9tb1.metal et u-12tb1.metal) sont les premières instances alimentées par une plateforme à 8 sockets avec les processeurs Intel Xeon Platinum 8176M (Skylake) de dernière génération optimisés pour des charges de travail critiques de l'entreprise.

Les instances à mémoire élevée avec 18 To et 24 To de mémoire (u-18tb1.metal et u-24tb1.metal) sont les premières instances alimentées par une plate-forme à 8 sockets avec des processeurs Intel Xeon 8280L (Cascade Lake) évolutifs de 2e génération.

Les instances à mémoire optimisée améliorent les performances de chiffrement grâce à la dernière fonction Intel AES-NI et prennent en charge les extensions de synchronisation transactionnelle (TSX) Intel pour améliorer les performances du traitement des données transactionnelles en mémoire, ainsi que les instructions de processeur Advanced Vector Extensions 2 (Intel AVX2) pour étendre la plupart des commandes entières à 256 bits.

Certaines instances à mémoire optimisée offrent la possibilité de contrôler les états C et les états P du processeur sur Linux. Les états C-states contrôlent les niveaux de veille d'un noyau lorsqu'il est inactif, tandis que les états P-states contrôlent les performances attendues d'un noyau (mesurées grâce à la fréquence d'UC). Pour plus d'informations, consultez Contrôle des états du processeur pour votre instance EC2.

Performances réseau

Vous pouvez activer la mise en réseau améliorée sur les types d'instance pris en charge pour fournir des latences plus faibles, une instabilité moindre sur le réseau et des performances de débit en paquets par seconde (PPS) plus élevées. La plupart des applications ne nécessitent pas en permanence un haut niveau de performances réseau, mais peuvent tirer profit d'un accès à une bande passante accrue lorsqu'elles envoient ou reçoivent des données. Pour plus d'informations, consultez Mise en réseau améliorée sur Linux.

Vous trouverez ci-dessous un résumé des performances réseau relatives aux instances optimisées pour la mémoire qui prennent en charge la mise en réseau améliorée.

Type d'instance Performances réseau Mise en réseau améliorée
r4.4xlarge et tailles inférieures | r5.4xlarge et tailles inférieures | r5a.8xlarge et tailles inférieures | r5ad.4xlarge et tailles inférieures | r5d.4xlarge et tailles inférieures | x1e.8large et tailles inférieures | z1d.3xlarge et tailles inférieures Jusqu'à 10 Gbit/s † ENA
r4.8xlarge | r5.8xlarge | r5.12xlarge | r5a.12xlarge | r5ad.12xlarge | r5d.8xlarge | r5d.12xlarge | x1.16xlarge | x1e.16xlarge | z1d.6xlarge 10 Gb/s ENA
r5a.16xlarge | r5ad.16xlarge 12 Gb/s ENA
r5.16xlarge | r5a.24xlarge | r5ad.24xlarge | r5d.16xlarge 20 Gb/s ENA
r5dn.4xlarge et tailles inférieures | r5n.4xlarge et tailles inférieures Jusqu'à 25 Gbit/s † ENA
r4.16xlarge | r5.24xlarge | r5.metal | r5d.24xlarge | r5d.metal | r5dn.8xlarge | r5n.8xlarge | x1.32xlarge | x1e.32xlarge | z1d.12xlarge | z1d.metal 25 Gb/s ENA
r5dn.12xlarge | r5n.12xlarge 50 Gb/s ENA
r5dn.16xlarge | r5n.16xlarge 75 Gb/s ENA
r5dn.24xlarge | r5n.24xlarge | u-6tb1.metal * | u-9tb1.metal * | u-12tb1.metal * | u-18tb1.metal | u-24tb1.metal 100 Gb/s ENA

* Les instances de ce type lancées après le 12 mars 2020 fournissent des performances réseau de 100 Gbit/s. Les instances de ce type lancées avant le 12 mars 2020 ne peuvent fournir que des performances réseau de 25 Gbit/s. Pour vous assurer que les instances lancées avant le 12 mars 2020 ont une performance réseau de 100 Gbit/s, contactez votre équipe de compte pour mettre à niveau votre instance sans frais supplémentaires.

† Ces instances utilisent un mécanisme de crédit d'E/S réseau pour attribuer la bande passante réseau aux instances en fonction de l'utilisation moyenne de la bande passante. Elles accumulent des crédits lorsque la bande passante est inférieure à la bande passante de référence et peuvent les utiliser quand elles effectuent les transferts de données réseau. Pour de plus amples informations, ouvrez un dossier de support et renseignez-vous sur la bande passante de référence pour les types d'instance spécifiques qui vous intéressent.

Performances d'E/S sur SSD

Si vous utilisez une AMI Linux avec un noyau de version 4.4 ou ultérieure et que vous utilisez tous les volumes de stockage d'instance basés sur SSD disponibles pour votre instance, vous pouvez obtenir les performances d'IOPS (taille de bloc de 4 096 octets) répertoriées dans le tableau suivant (lorsque la profondeur de la file d'attente est saturée). Sinon, vous obtenez des performances d'I/O inférieures.

Taille d'instance E/S par seconde en lecture aléatoires 100 % E/S par seconde en écriture
r5ad.large * 30 000 15 000 USD
r5ad.xlarge * 59 000 29 000
r5ad.2xlarge * 117 000 57 000
r5ad.4xlarge * 234 000 114 000
r5ad.12xlarge 700 000 340 000
r5ad.24xlarge 1 400 000 680 000
r5d.large * 30 000 15 000 USD
r5d.xlarge * 59 000 29 000
r5d.2xlarge * 117 000 57 000
r5d.4xlarge * 234 000 114 000
r5d.8xlarge 466 666 233 333
r5d.12xlarge 700 000 340 000
r5d.16xlarge 933 333 466 666
r5d.24xlarge 1 400 000 680 000
r5d.metal 1 400 000 680 000
r5dn.large * 30 000 15 000 USD
r5dn.xlarge * 59 000 29 000
r5dn.2xlarge * 117 000 57 000
r5dn.4xlarge * 234 000 114 000
r5dn.8xlarge 466 666 233 333
r5dn.12xlarge 700 000 340 000
r5dn.16xlarge 933 333 466 666
r5dn.24xlarge 1 400 000 680 000
z1d.large * 30 000 15 000 USD
z1d.xlarge * 59 000 29 000
z1d.2xlarge * 117 000 57 000
z1d.3xlarge * 175 000 75 000
z1d.6xlarge 350 000 170 000
z1d.12xlarge 700 000 340 000
z1d.metal 700 000 340 000

* Pour ces instances, vous pouvez obtenir la performance spécifiée.

Au fur et à mesure que vous remplissez les volumes de stockage d'instance basés sur SSD pour votre instance, le nombre d'E/S en écriture que vous pouvez obtenir diminue. Ceci est dû au travail supplémentaire que le contrôleur SSD doit effectuer pour trouver de l'espace disponible, réécrire les données existantes et effacer l'espace non utilisé pour le rendre réinscriptible. Ce processus de nettoyage de la mémoire se traduit par une amplification d'écriture interne sur le disque SSD, exprimée sous la forme du rapport des opérations d'écriture SSD sur les opérations d'écriture utilisateur. Cette diminution des performances est encore plus importante si les opérations d'écriture ne sont pas exprimées en multiples de 4 096 octets ou ne sont pas alignées sur une limite de 4 096 octets. Si vous écrivez une quantité d'octets plus faible ou des octets qui ne sont pas alignés, le contrôleur SSD doit lire les données environnantes et stocker le résultat dans un nouvel emplacement. Ce modèle se traduit par une forte augmentation de l'amplification d'écriture, une latence accrue et une diminution considérable des performances d'E/S.

Les contrôleurs SSD peuvent utiliser plusieurs stratégies pour réduire l'impact de l'amplification d'écriture. Une telle stratégie consiste à réserver un espace dans le stockage d'instance SSD afin que le contrôleur puisse gérer efficacement l'espace disponible pour les opérations d'écriture. Cette solution est appelée sur-approvisionnement. Les volumes de stockage d'instance SSD fournis à une instance n'ont pas d'espace réservé pour le sur-approvisionnement. Pour réduire l'amplification d'écriture, nous vous conseillons de laisser 10 % du volume non partitionné que le contrôleur SSD pourra utiliser pour le sur-approvisionnement. Cela diminue le stockage que vous pouvez utiliser, mais augmente les performances même si le disque est proche de sa capacité maximale.

Pour les volumes de stockage d'instance qui prennent en charge TRIM, vous pouvez utiliser la commande TRIM pour informer le contrôleur SSD lorsque vous n'avez plus besoin des données que vous avez écrites. Cela fournit au contrôleur plus d'espace disponible, ce qui peut réduire l'amplification d'écriture et augmenter les performances. Pour plus d'informations, consultez Prise en charge de TRIM sur les volumes de stockage d'instance.

Fonctionnalités des instances

Voici un résumé des fonctions pour les instances à mémoire optimisée :

EBS uniquement EBS NVMe Stockage d'instance Groupe de placement

R4

Oui

Non

Non

Oui

R5

Oui

Oui

Non

Oui

R5a

Oui

Oui

Non

Oui

R5ad

Non

Oui

NVME *

Oui

R5d

Non

Oui

NVME *

Oui

R5dn

Non

Oui

NVME *

Oui

R5n

Oui

Oui

Non

Oui

u-6tb1.metal

Oui

Oui

Non

Non

u-9tb1.metal

Oui

Oui

Non

Non

u-12tb1.metal

Oui

Oui

Non

Non

u-18tb1.metal

Oui

Oui

Non

Non

u-24tb1.metal

Oui

Oui

Non

Non

X1

Non

Non

SSD

Oui

X1e

Non

Non

SSD *

Oui

z1d

Non

Oui

NVME *

Oui

* Le volume du périphérique racine doit être un volume Amazon EBS.

Pour plus d'informations, consultez les ressources suivantes :

Prise en charge de processeurs virtuels

Les instances à mémoire optimisée offrent un grand nombre de processeurs virtuels, ce qui peut entraîner des problèmes de lancement avec les systèmes d'exploitation dont la limite de processeurs virtuels est inférieure. Il est fortement recommandé d'utiliser les dernières AMI lors du lancement d'instances à mémoire optimisée.

Les AMI suivantes prennent en charge le lancement des instances à mémoire optimisée :

  • Amazon Linux 2 (HVM)

  • Amazon Linux AMI 2016.03 (HVM) ou version ultérieure

  • Ubuntu Server 14.04 LTS (HVM)

  • Red Hat Enterprise Linux 7.1 (HVM)

  • SUSE Linux Enterprise Server 12 SP1 (HVM)

  • Windows Server 2019

  • Windows Server 2016

  • Windows Server 2012 R2

  • Windows Server 2012

  • Windows Server 2008 R2 64 bits

  • Windows Server 2008 SP2 64 bits

Notes de mise à jour

  • Les instances R5 et R5d sont équipées d'un processeur Intel Xeon Platinum 8000 de 3,1 GHz de la première génération (Skylake-SP) ou de la deuxième génération (Cascade Lake).

  • Les instances R5a et R5ad utilisent un processeur AMD EPYC 7000 à 2,5 GHz.

  • Les instances reposant sur le système Nitro présentent les exigences suivantes :

    Les AMI Linux suivantes répondent aux critères suivants :

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03

    • Ubuntu 14.04 (avec le noyau linux-aws) ou version ultérieure

    • Red Hat Enterprise Linux 7.4 ou version ultérieure

    • SUSE Linux Enterprise Server 12 SP2 ou version ultérieure

    • CentOS 7.4.1708 ou version ultérieure

    • FreeBSD 11.1 ou version ultérieure

    • Debian GNU/Linux 9 ou version ultérieure

  • Les instances reposant sur le système Nitro prennent en charge un maximum de 28 attachements, y compris les interfaces réseau, les volumes EBS et les volumes de stockage d'instance NVMe. Pour plus d'informations, consultez Limites de volume du système Nitro.

  • Le lancement d'une instance en matériel nu démarre le serveur sous-jacent, qui inclut la vérification de tous les composants du matériel et du microprogramme. Cela signifie que 20 minutes peuvent s'écouler entre le moment où l'instance passe à l'état d'exécution et le moment où elle devient disponible sur le réseau.

  • Attacher ou détacher des volumes EBS ou des interfaces réseau secondaires à partir d'une instance en matériel nu requiert la prise en charge de l'enfichage à chaud natif de PCIe. Amazon Linux 2 et les dernières versions de l'Amazon Linux AMI prennent en charge l'enfichage à chaud natif de PCIe, ce qui n'est pas le cas des versions antérieures. Vous devez activer les options de configuration suivantes du noyau Linux :

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Les instances en matériel nu utilisent un périphérique série basé sur PCI plutôt qu'un périphérique série basé sur le port d'E/S. Le noyau Linux kernel en amont et les dernières AMI Amazon Linux prennent en charge ce périphérique. Les instances en matériel nu fournissent également un tableau SPCR ACPI afin de permettre au système d'utiliser automatiquement le périphérique série basé sur PCI. Les dernières AMI Windows utilisent automatiquement le périphérique série basé sur PCI.

  • Vous ne pouvez pas lancer d'instances X1 à l'aide d'une AMI Windows Server 2008 SP2 64 bits, sauf pour les instances x1.16xlarge.

  • Vous ne pouvez pas lancer d'instances X1e à l'aide d'une AMI Windows Server 2008 SP2 64 bits.

  • Vous ne pouvez pas lancer d'instances r4.large et r4.4xlarge à l'aide des versions précédentes de l'AMI Windows Server 2008 R2 64 bits. Si vous rencontrez ce problème, vous devez mettre à jour vers la dernière version de cette AMI.

  • Le nombre total d'instances que vous pouvez lancer dans une région est soumis à une limite, et il existe des limites supplémentaires sur certains types d'instances. Pour de plus amples informations, veuillez consulter Combien d'instances est-il possible d'exécuter dans Amazon EC2 ? dans les questions fréquentes Amazon EC2.