Instances à usage général - Amazon Elastic Compute Cloud

Instances à usage général

Les instances à usage général fournissent un équilibre entre les ressources de calcul, de mémoire et de mise réseau. Elles peuvent être utilisées pour un large éventail de charges de travail.

Instances A1

Ces instances sont parfaitement adaptées aux charges de travail adaptatives qui sont prises en charge par l'écosystème Arm. Ces instances conviennent à ce qui suit :

  • Serveurs Web

  • Microservices à conteneurs

Les instances de matériel nu, comme a1.metal, offrent à vos applications un accès direct aux ressources physiques du serveur hôte, comme les processeurs et la mémoire.

Pour de plus amples informations, veuillez consulter AWS Graviton Processor et Instances Amazon EC2 A1.

Instances M5 et M5a

Ces instances permettent de créer une infrastructure de cloud idéale en fournissant un équilibre entre ressources de calcul, de mémoire et de mise en réseau pour un large éventail d'applications déployées dans le cloud. Elles conviennent à ce qui suit :

  • Bases de données de petite et moyenne taille

  • Tâches de traitement des données nécessitant une mémoire supplémentaire

  • Flottes de mise en cache

  • Exécution de serveurs backend pour SAP, Microsoft SharePoint, le calcul en cluster et d'autres applications d'entreprise

Pour de plus amples informations, veuillez consulter InstancesAmazon EC2 M5 et M5a.

Les instances de matériel nu, comme m5.metal, offrent à vos applications un accès direct aux ressources physiques du serveur hôte, comme les processeurs et la mémoire. Ces instances conviennent à ce qui suit :

  • Charges de travail nécessitant un accès à des fonctions matérielles de bas niveau (Intel VT, par exemple) qui ne sont pas disponibles ou entièrement prises en charge dans les environnements virtualisés

  • Applications nécessitant un environnement non virtualisé pour des questions de licence ou d'assistance

Instances M6g et M6gD

Ces instances sont alimentées par des processeurs AWS Graviton2 et fournissent un calcul, une mémoire et une mise en réseau équilibrés pour une large gamme de charges de travail à usage général. Elles conviennent aux scénarios suivants :

  • Serveurs d'applications

  • Microservices

  • Serveurs de jeu

  • Stockages de données de taille moyenne

  • Flottes de mise en cache

Les instances de matériel nu, comme m6g.metal, offrent à vos applications un accès direct aux ressources physiques du serveur hôte, comme les processeurs et la mémoire.

Pour de plus amples informations, veuillez consulter Instances M6g Amazon EC2.

Instances T2, T3 et T3a

Ces instances offrent des performances d'UC de base et la possibilité d'atteindre un niveau supérieur lorsque votre charge de travail l'exige. Une instance en mode illimité peut maintenir des performances d'UC élevées pour toute période donnée en cas de nécessité. Pour plus d'informations, consultez Instances à capacité extensible. Ces instances conviennent à ce qui suit :

  • Sites et applications Web

  • Référentiels de code

  • Environnements de développement, de génération, de test ou de mise en place

  • Microservices

Pour plus d'informations, consultez Instances T2 Amazon EC2 et Instances T3 Amazon EC2.

Spécifications matérielles

Vous trouverez ci-dessous un résumé des spécifications matérielles relatives aux instances à usage général.

Type d'instance vCPU par défaut Mémoire (Gio)
a1.medium 1 2
a1.large 2 4
a1.xlarge 4 8
a1.2xlarge 8 16
a1.4xlarge 16 32
a1.metal 16 32
m4.large 2 8
m4.xlarge 4 16
m4.2xlarge 8 32
m4.4xlarge 16 64
m4.10xlarge 40 160
m4.16xlarge 64 256
m5.large 2 8
m5.xlarge 4 16
m5.2xlarge 8 32
m5.4xlarge 16 64
m5.8xlarge 32 128
m5.12xlarge 48 192
m5.16xlarge 64 256
m5.24xlarge 96 384
m5.metal 96 384
m5a.large 2 8
m5a.xlarge 4 16
m5a.2xlarge 8 32
m5a.4xlarge 16 64
m5a.8xlarge 32 128
m5a.12xlarge 48 192
m5a.16xlarge 64 256
m5a.24xlarge 96 384
m5ad.large 2 8
m5ad.xlarge 4 16
m5ad.2xlarge 8 32
m5ad.4xlarge 16 64
m5ad.8xlarge 32 128
m5ad.12xlarge 48 192
m5ad.16xlarge 64 256
m5ad.24xlarge 96 384
m5d.large 2 8
m5d.xlarge 4 16
m5d.2xlarge 8 32
m5d.4xlarge 16 64
m5d.8xlarge 32 128
m5d.12xlarge 48 192
m5d.16xlarge 64 256
m5d.24xlarge 96 384
m5d.metal 96 384
m5dn.large 2 8
m5dn.xlarge 4 16
m5dn.2xlarge 8 32
m5dn.4xlarge 16 64
m5dn.8xlarge 32 128
m5dn.12xlarge 48 192
m5dn.16xlarge 64 256
m5dn.24xlarge 96 384
m5n.large 2 8
m5n.xlarge 4 16
m5n.2xlarge 8 32
m5n.4xlarge 16 64
m5n.8xlarge 32 128
m5n.12xlarge 48 192
m5n.16xlarge 64 256
m5n.24xlarge 96 384
m6g.medium 1 4
m6g.large 2 8
m6g.xlarge 4 16
m6g.2xlarge 8 32
m6g.4xlarge 16 64
m6g.8xlarge 32 128
m6g.12xlarge 48 192
m6g.16xlarge 64 256
m6g.metal 64 256
m6gd.medium 1 4
m6gd.large 2 8
m6gd.xlarge 4 16
m6gd.2xlarge 8 32
m6gd.4xlarge 16 64
m6gd.8xlarge 32 128
m6gd.12xlarge 48 192
m6gd.16xlarge 64 256
m6gd.metal 64 256
t2.nano 1 0,5
t2.micro 1 1
t2.small 1 2
t2.medium 2 4
t2.large 2 8
t2.xlarge 4 16
t2.2xlarge 8 32
t3.nano 2 0,5
t3.micro 2 1
t3.small 2 2
t3.medium 2 4
t3.large 2 8
t3.xlarge 4 16
t3.2xlarge 8 32
t3a.nano 2 0,5
t3a.micro 2 1
t3a.small 2 2
t3a.medium 2 4
t3a.large 2 8
t3a.xlarge 4 16
t3a.2xlarge 8 32

Pour de plus amples informations sur les spécifications matérielles pour chaque type d'instance Amazon EC2, veuillez consulter Types d'instance Amazon EC2.

Pour plus d'informations sur la spécification des options d'UC, consultez Optimisations des options d'UC.

Performances de l'instance

Les instances optimisées EBS vous permettent d'obtenir régulièrement des performances élevées pour vos volumes EBS en éliminant les conflits entre les E/S Amazon EBS et tout autre trafic réseau de votre instance Certaines instances à visée générale sont optimisées pour EBS par défaut sans frais supplémentaires. Pour de plus amples informations, veuillez consulter Amazon EBS–Instances optimisées.

Certains types d'instances à visée générale permettent de contrôler les états C et P du processeur sur Linux. Les états C contrôlent les niveaux de veille d'un noyau lorsqu'il est inactif, tandis que les états P contrôlent les performances attendues d'un noyau (en termes de fréquence d'UC). Pour plus d'informations, consultez Contrôle des états du processeur pour votre instance EC2.

Performances réseau

Vous pouvez activer la mise en réseau améliorée sur les types d'instance pris en charge pour fournir des latences plus faibles, une instabilité moindre sur le réseau et des performances de débit en paquets par seconde (PPS) plus élevées. La plupart des applications ne nécessitent pas en permanence un haut niveau de performances réseau, mais peuvent tirer profit d'un accès à une bande passante accrue lorsqu'elles envoient ou reçoivent des données. Pour plus d'informations, consultez Mise en réseau améliorée sur Linux.

Vous trouverez ci-dessous un résumé des performances réseau relatives aux instances à usage général qui prennent en charge la mise en réseau améliorée.

Type d'instance Performances réseau Mise en réseau améliorée
t2.nano | t2.micro | t2.small | t2.medium | t2.large | t2.xlarge | t2.2xlarge Jusqu'à 1 Gbit/s Non pris en charge
t3.nano | t3.micro | t3.small | t3.medium | t3.large | t3.xlarge | t3.2xlarge | t3a.nano | t3a.micro | t3a.small | t3a.medium | t3a.large | t3a.xlarge | t3a.2xlarge Jusqu'à 5 Gbit/s † ENA
m4.large Modérées Intel 82599 VF
m4.xlarge | m4.2xlarge | m4.4xlarge Elevé Intel 82599 VF
a1.4xlarge et tailles inférieures | a1.metal | m5.4xlarge et tailles inférieures | m5a.8xlarge et tailles inférieures | m5ad.8xlarge et tailles inférieures | m5d.4xlarge et tailles inférieures | m6g.4xlarge et tailles inférieures | m6gd.4xlarge et tailles inférieures Jusqu'à 10 Gbit/s † ENA
m4.10xlarge 10 Gb/s Intel 82599 VF
m5.8xlarge | m5a.12xlarge | m5ad.12xlarge | m5d.8xlarge 10 Gb/s ENA
m5.12xlarge | m5a.16xlarge | m5ad.16xlarge | m5d.12xlarge | m6g.8xlarge | m6gd.8xlarge 12 Gb/s ENA
m5.16xlarge | m5a.24xlarge | m5ad.24xlarge | m5d.16xlarge | m6g.12xlarge | m6gd.12xlarge 20 Gb/s ENA
m5dn.4xlarge et plus petit | m5n.4xlarge et plus petit Jusqu'à 25 Gbit/s † ENA
m4.16xlarge | m5.24xlarge | m5.metal | m5d.24xlarge | m5d.metal | m5dn.8xlarge | m5n.8xlarge | m6g.16xlarge | m6g.metal | m6gd.16xlarge | m6gd.metal 25 Gb/s ENA
m5dn.12xlarge | m5n.12xlarge 50 Gb/s ENA
m5dn.16xlarge | m5n.16xlarge 75 Gb/s ENA
m5dn.24xlarge | m5n.24xlarge 100 Gb/s ENA

† Ces instances utilisent un mécanisme de crédit d'E/S réseau pour attribuer la bande passante réseau aux instances en fonction de l'utilisation moyenne de la bande passante. Elles accumulent des crédits lorsque la bande passante est inférieure à la bande passante de référence et peuvent les utiliser quand elles effectuent les transferts de données réseau. Pour de plus amples informations, ouvrez un dossier de support et renseignez-vous sur la bande passante de référence pour les types d'instance spécifiques qui vous intéressent.

Performances d'E/S sur SSD

Si vous utilisez une AMI Linux avec un noyau de version 4.4 ou ultérieure et que vous utilisez tous les volumes de stockage d'instance basés sur SSD disponibles pour votre instance, vous pouvez obtenir les performances d'IOPS (taille de bloc de 4 096 octets) répertoriées dans le tableau suivant (lorsque la profondeur de la file d'attente est saturée). Sinon, vous obtenez des performances d'I/O inférieures.

Taille d'instance E/S par seconde en lecture aléatoires 100 % E/S par seconde en écriture
m5ad.large * 30 000 15 000 USD
m5ad.xlarge *

59 000

29 000

m5ad.2xlarge *

117 000

57 000

m5ad.4xlarge *

234 000

114 000

m5ad.8xlarge

466 666

233 333

m5ad.12xlarge

700 000

340 000

m5ad.16xlarge

933 333

466 666

m5ad.24xlarge

1 400 000

680 000

m5d.large *

30 000

15 000 USD

m5d.xlarge *

59 000

29 000

m5d.2xlarge *

117 000

57 000

m5d.4xlarge *

234 000

114 000

m5d.8xlarge

466 666

233 333

m5d.12xlarge

700 000

340 000

m5d.16xlarge

933 333

466 666

m5d.24xlarge

1 400 000

680 000

m5d.metal

1 400 000

680 000

m5dn.large *

30 000

15 000 USD

m5dn.xlarge *

59 000

29 000

m5dn.2xlarge *

117 000

57 000

m5dn.4xlarge *

234 000

114 000

m5dn.8xlarge

466 666

233 333

m5dn.12xlarge

700 000

340 000

m5dn.16xlarge 933 333

466 666

m5dn.24xlarge

1 400 000

680 000

m6gd.medium 13 438 5 625
m6gd.large 26 875 11 250
m6gd.xlarge 53 750 22 500
m6gd.2xlarge 107 500 45 000
m6gd.4xlarge 215 000 90 000
m6gd.8xlarge 430 000 180 000
m6gd.12xlarge 645 000 270 000
m6gd.16xlarge 860 000 360 000
m6gd.metal 860 000 360 000

* Pour ces instances, vous pouvez obtenir la performance spécifiée.

Au fur et à mesure que vous remplissez les volumes de stockage d'instance basés sur SSD pour votre instance, le nombre d'E/S en écriture que vous pouvez obtenir diminue. Ceci est dû au travail supplémentaire que le contrôleur SSD doit effectuer pour trouver de l'espace disponible, réécrire les données existantes et effacer l'espace non utilisé pour le rendre réinscriptible. Ce processus de nettoyage de la mémoire se traduit par une amplification d'écriture interne sur le disque SSD, exprimée sous la forme du rapport des opérations d'écriture SSD sur les opérations d'écriture utilisateur. Cette diminution des performances est encore plus importante si les opérations d'écriture ne sont pas exprimées en multiples de 4 096 octets ou ne sont pas alignées sur une limite de 4 096 octets. Si vous écrivez une quantité d'octets plus faible ou des octets qui ne sont pas alignés, le contrôleur SSD doit lire les données environnantes et stocker le résultat dans un nouvel emplacement. Ce modèle se traduit par une forte augmentation de l'amplification d'écriture, une latence accrue et une diminution considérable des performances d'E/S.

Les contrôleurs SSD peuvent utiliser plusieurs stratégies pour réduire l'impact de l'amplification d'écriture. Une telle stratégie consiste à réserver un espace dans le stockage d'instance SSD afin que le contrôleur puisse gérer efficacement l'espace disponible pour les opérations d'écriture. Cette solution est appelée sur-approvisionnement. Les volumes de stockage d'instance SSD fournis à une instance n'ont pas d'espace réservé pour le sur-approvisionnement. Pour réduire l'amplification d'écriture, nous vous conseillons de laisser 10 % du volume non partitionné que le contrôleur SSD pourra utiliser pour le sur-approvisionnement. Cela diminue le stockage que vous pouvez utiliser, mais augmente les performances même si le disque est proche de sa capacité maximale.

Pour les volumes de stockage d'instance qui prennent en charge TRIM, vous pouvez utiliser la commande TRIM pour informer le contrôleur SSD lorsque vous n'avez plus besoin des données que vous avez écrites. Cela fournit au contrôleur plus d'espace disponible, ce qui peut réduire l'amplification d'écriture et augmenter les performances. Pour plus d'informations, consultez Prise en charge de TRIM sur les volumes de stockage d'instance.

Fonctionnalités des instances

Voici un résumé des fonctions pour les instances à usage général :

EBS uniquement EBS NVMe Stockage d'instance Groupe de placement

A1

Oui

Oui

Non

Oui

M4

Oui

Non

Non

Oui

M5

Oui

Oui

Non

Oui

M5a

Oui

Oui

Non

Oui

M5ad

Non

Oui

NVMe *

Oui

M5d

Non

Oui

NVMe *

Oui

M5dn

Non

Oui

NVMe *

Oui

M5n

Oui

Oui

Non

Oui

M6g

Oui

Oui

Non

Oui

M6gd

Non

Oui

NVMe *

Oui

T2

Oui

Non

Non

Non

T3

Oui

Oui

Non

Non

T3a

Oui

Oui

Non

Non

* Le volume du périphérique racine doit être un volume Amazon EBS.

Pour plus d'informations, consultez les ressources suivantes :

Notes de mise à jour

  • Les instances M5, M5d et T3 sont équipées d'un processeur Intel Xeon Platinum 8000 de 3,1 GHz de la première génération (Skylake-SP) ou de la deuxième génération (Cascade Lake).

  • Les instances M5a, M5ad et T3a utilisent un processeur AMD EPYC 7000 à 2,5 GHz.

  • Les instances A1 utilisent un processeur AWS Graviton à 2,3 GHz basé sur une architecture Arm 64 bits.

  • Les instances M6g et M6gd utilisent un processeur AWS Graviton2 basé sur l'architecture Arm 64 bits.

  • Les instances de types M4, M5, M5a, M5ad, M5d, t2.large et de plus grande taille et t3.large et de plus grande taille, ainsi que t3a.large et de plus grande taille requièrent des AMIs HVM 64 bits. Elles sont dotées d'une mémoire élevée et un système d'exploitation 64 bits est nécessaire pour tirer parti de cette capacité. Les AMI HVM offrent des performances supérieures par rapport aux AMI paravirtuelles (PV) sur les types d'instance à mémoire élevée. De plus, vous devez utiliser une AMI HVM pour tirer parti de la mise en réseau améliorée.

  • Les instances reposant sur le système Nitro présentent les exigences suivantes :

    Les AMI Linux suivantes répondent aux critères suivants :

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03

    • Ubuntu 14.04 (avec le noyau linux-aws) ou version ultérieure

    • Red Hat Enterprise Linux 7.4 ou version ultérieure

    • SUSE Linux Enterprise Server 12 SP2 ou version ultérieure

    • CentOS 7.4.1708 ou version ultérieure

    • FreeBSD 11.1 ou version ultérieure

    • Debian GNU/Linux 9 ou version ultérieure

  • Les instances dotées de processeurs AWS Graviton présentent les exigences suivantes :

    • Utiliser une AMI pour l'architecture Arm 64 bits.

    • Prendre en charge le démarrage via UEFI avec les tables ACPI, ainsi que l'insertion à chaud ACPI des périphériques PCI.

    Les AMI Linux suivantes répondent à ces critères :

    • Amazon Linux 2 (Arm 64 bits)

    • Ubuntu 16.04 ou une version ultérieure (Arm 64 bits)

    • Red Hat Enterprise Linux 8.0 ou une version ultérieure (Arm 64 bits)

    • SUSE Linux Enterprise Server 15 ou version ultérieure (Arm 64 bits)

  • Les instances reposant sur le système Nitro prennent en charge un maximum de 28 attachements, y compris les interfaces réseau, les volumes EBS et les volumes de stockage d'instance NVMe. Pour plus d'informations, consultez Limites de volume du système Nitro.

  • Le lancement d'une instance en matériel nu démarre le serveur sous-jacent, qui inclut la vérification de tous les composants du matériel et du microprogramme. Cela signifie que 20 minutes peuvent s'écouler entre le moment où l'instance passe à l'état d'exécution et le moment où elle devient disponible sur le réseau.

  • Attacher ou détacher des volumes EBS ou des interfaces réseau secondaires à partir d'une instance en matériel nu requiert la prise en charge de l'enfichage à chaud natif de PCIe. Amazon Linux 2 et les dernières versions de l'Amazon Linux AMI prennent en charge l'enfichage à chaud natif de PCIe, ce qui n'est pas le cas des versions antérieures. Vous devez activer les options de configuration suivantes du noyau Linux :

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Les instances en matériel nu utilisent un périphérique série basé sur PCI plutôt qu'un périphérique série basé sur le port d'E/S. Le noyau Linux kernel en amont et les dernières AMI Amazon Linux prennent en charge ce périphérique. Les instances en matériel nu fournissent également un tableau SPCR ACPI afin de permettre au système d'utiliser automatiquement le périphérique série basé sur PCI. Les dernières AMI Windows utilisent automatiquement le périphérique série basé sur PCI.

  • system-logind ou acpid doit être installé sur les instances reposant sur le système Nitro afin que ces instances prennent en charge les fermetures nettes via les demandes d'API.

  • Le nombre total d'instances que vous pouvez lancer dans une région est soumis à une limite, et il existe des limites supplémentaires sur certains types d'instances. Pour de plus amples informations, veuillez consulter Combien d'instances est-il possible d'exécuter dans Amazon EC2 ? dans les questions fréquentes Amazon EC2.