Amazon Elastic Compute Cloud
Guide de l'utilisateur pour les instances Linux

Instances à usage général

Les instances à usage général fournissent un équilibre entre les ressources de calcul, de mémoire et de mise réseau. Elles peuvent être utilisées pour de très nombreuses charges de travail.

Instances A1

Les instances A1, parfaitement adaptées aux charges de travail adaptatives, sont prises en charge par l'écosystème Arm. Ces instances conviennent parfaitement aux applications suivantes :

  • Serveurs Web

  • Microservices à conteneurs

  • Flottes de mise en cache

  • Magasins de données distribués

  • Applications qui ont besoin de l'ensemble d'instructions Arm

Pour plus d'informations, consultez Instances A1 Amazon EC2.

Instances M5, M5a, M5ad, M5d

Ces instances permettent de créer une infrastructure de cloud idéale en fournissant un équilibre entre ressources de calcul, de mémoire et de mise en réseau pour un large éventail d'applications déployées dans le cloud. Les instances M5 conviennent parfaitement aux applications suivantes :

  • Serveurs d'applications et Web

  • Bases de données petites et moyennes

  • Serveurs de jeu

  • Flottes de mise en cache

  • Exécution de serveurs backend pour SAP, Microsoft SharePoint, le calcul en cluster et d'autres applications d'entreprise

Les instances m5.metal et m5d.metal offrent à vos applications un accès direct aux ressources physiques du serveur hôte, telles que les processeurs et la mémoire. Ces instances conviennent à ce qui suit :

  • Charges de travail nécessitant un accès à des fonctions matérielles de bas niveau (Intel VT, par exemple) qui ne sont pas disponibles ou entièrement prises en charge dans les environnements virtualisés

  • Applications nécessitant un environnement non virtualisé pour des questions de licence ou d'assistance

Pour plus d'informations, consultez Instances M5 Amazon EC2.

Instances T2, T3 et T3a

Ces instances offrent des performances d'UC de base et la possibilité d'atteindre un niveau supérieur lorsque votre charge de travail l'exige. Une instance en mode illimité peut maintenir des performances d'UC élevées pour toute période donnée en cas de nécessité. Pour plus d'informations, consultez Instances à capacité extensible. Ces instances conviennent parfaitement aux applications suivantes :

  • Sites et applications Web

  • Référentiels de code

  • Environnements de développement, de génération, de test ou de mise en place

  • Microservices

Pour plus d'informations, consultez Instances T2 Amazon EC2 et Instances T3 Amazon EC2.

Spécifications matérielles

Vous trouverez ci-dessous un résumé des spécifications matérielles relatives aux instances à usage général.

Type d'instance vCPU par défaut Mémoire (Gio)
a1.medium 1 2
a1.large 2 4
a1.xlarge 4 8
a1.2xlarge 8 16
a1.4xlarge 16 32
m4.large 2 8
m4.xlarge 4 16
m4.2xlarge 8 32
m4.4xlarge 16 64
m4.10xlarge 40 160
m4.16xlarge 64 256
m5.large 2 8
m5.xlarge 4 16
m5.2xlarge 8 32
m5.4xlarge 16 64
m5.8xlarge 32 128
m5.12xlarge 48 192
m5.16xlarge 64 256
m5.24xlarge 96 384
m5.metal 96 384
m5a.large 2 8
m5a.xlarge 4 16
m5a.2xlarge 8 32
m5a.4xlarge 16 64
m5a.8xlarge 32 128
m5a.12xlarge 48 192
m5a.16xlarge 64 256
m5a.24xlarge 96 384
m5ad.large 2 8
m5ad.xlarge 4 16
m5ad.2xlarge 8 32
m5ad.4xlarge 16 64
m5ad.12xlarge 48 192
m5ad.24xlarge 96 384
m5d.large 2 8
m5d.xlarge 4 16
m5d.2xlarge 8 32
m5d.4xlarge 16 64
m5d.8xlarge 32 128
m5d.12xlarge 48 192
m5d.16xlarge 64 256
m5d.24xlarge 96 384
m5d.metal 96 384
t2.nano 1 0,5
t2.micro 1 1
t2.small 1 2
t2.medium 2 4
t2.large 2 8
t2.xlarge 4 16
t2.2xlarge 8 32
t3.nano 2 0,5
t3.micro 2 1
t3.small 2 2
t3.medium 2 4
t3.large 2 8
t3.xlarge 4 16
t3.2xlarge 8 32
t3a.nano 2 0,5
t3a.micro 2 1
t3a.small 2 2
t3a.medium 2 4
t3a.large 2 8
t3a.xlarge 4 16
t3a.2xlarge 8 32

Pour plus d'informations sur les spécifications matérielles pour chaque type d'instance Amazon EC2, consultez la page Types d'instance Amazon EC2.

Pour plus d'informations sur la spécification des options d'UC, consultez Optimisations des options d'UC.

Performances des instances

Les instances optimisées EBS vous permettent d'obtenir régulièrement des performances élevées pour vos volumes EBS en éliminant les conflits entre les E/S Amazon EBS et tout autre trafic réseau de votre instance Certaines instances à visée générale sont optimisées pour EBS par défaut sans frais supplémentaires. Pour plus d'informations, consultez Amazon EBS–Instances optimisées.

Certains types d'instances à visée générale permettent de contrôler les états C et P du processeur sur Linux. Les états C contrôlent les niveaux de veille d'un noyau lorsqu'il est inactif, tandis que les états P contrôlent les performances attendues d'un noyau (en termes de fréquence d'UC). Pour plus d'informations, consultez Contrôle des états du processeur pour votre instance EC2.

Performances réseau

Vous pouvez activer les fonctionnalités de mise en réseau améliorée sur les types d'instance pris en charge. La mise en réseau améliorée fournit des performances de débit en paquets par seconde (PPS) nettement plus élevées, une instabilité réseau moindre et des latences réduites. Pour plus d'informations, consultez Mise en réseau améliorée sur Linux.

Les types d'instance qui utilisent Elastic Network Adapter (ENA) pour la mise en réseau améliorée fournissent des performances élevées de débit en paquets par seconde avec des latences régulièrement faibles. La plupart des applications ne nécessitent pas en permanence un haut niveau de performances réseau, mais peuvent tirer profit d'un accès à une bande passante accrue lorsqu'elles envoient ou reçoivent des données. Les tailles d'instance qui utilisent ENA et sont documentées avec des performances réseau pouvant atteindre 10 Gb/s ou 25 Gb/s utilisent un mécanisme de crédit d'E/S réseau pour allouer la bande passante réseau aux instances en fonction de l'utilisation moyenne de la bande passante. Ces instances accumulent des crédits lorsque la bande passante du réseau est inférieure à leurs limites de référence et peuvent les utiliser quand elles effectuent les transferts de données réseau.

Vous trouverez ci-dessous un résumé des performances réseau relatives aux instances à usage général qui prennent en charge la mise en réseau améliorée.

Type d'instance Performances réseau Mise en réseau améliorée
t2.nano | t2.micro | t2.small | t2.medium | t2.large | t2.xlarge | t2.2xlarge Jusqu'à 1 Gbit/s
t3.nano | t3.micro | t3.small | t3.medium | t3.large | t3.xlarge | t3.2xlarge | t3a.nano | t3a.micro | t3a.small | t3a.medium | t3a.large | t3a.xlarge | t3a.2xlarge Jusqu'à 5 Gbit/s ENA

m4.large

Modérées

Intel 82599 VF

m4.xlarge | m4.2xlarge | m4.4xlarge

Elevé

Intel 82599 VF

a1.medium | a1.large | a1.xlarge | a1.2xlarge | a1.4xlarge | m5.large | m5.xlarge | m5.2xlarge | m5.4xlarge | m5a.large | m5a.xlarge | m5a.2xlarge | m5a.4xlarge | m5a.8xlarge | m5ad.large | m5ad.xlarge | m5ad.2xlarge | m5ad.4xlarge | m5d.large | m5d.xlarge | m5d.2xlarge | m5d.4xlarge

Jusqu'à 10 Gbit/s

ENA

m4.10xlarge

10 Gb/s

Intel 82599 VF

m5.8xlarge | m5.12xlarge | m5a.12xlarge | m5ad.12xlarge | m5d.8xlarge | m5d.12xlarge

10 Gb/s

ENA

m5a.16xlarge | m5ad.16xlarge

12 Gb/s

ENA

m5.16xlarge | m5a.24xlarge | m5ad.24xlarge | m5d.16xlarge

20 Gb/s

ENA

m4.16xlarge | m5.24xlarge | m5.metal | m5d.24xlarge | m5d.metal

25 Gb/s

ENA

Performances d'E/S sur SSD

Si vous utilisez une AMI Linux avec un noyau de version 4.4 ou ultérieure et que vous utilisez tous les volumes de stockage d'instance basés sur SSD disponibles pour votre instance, vous pouvez obtenir les performances d'IOPS (taille de bloc de 4 096 octets) répertoriées dans le tableau suivant (lorsque la profondeur de la file d'attente est saturée). Sinon, vous obtenez des performances d'I/O inférieures.

Taille d'instance E/S par seconde en lecture aléatoires 100 % E/S par seconde en écriture

m5ad.large *

30 000

15 000 USD

m5ad.xlarge *

59 000

29 000

m5ad.2xlarge *

117 000

57 000

m5ad.4xlarge *

234 000

114 000

m5ad.12xlarge

700 000

340 000

m5ad.24xlarge

1 400 000

680 000

m5d.large *

30 000

15 000 USD

m5d.xlarge *

59 000

29 000

m5d.2xlarge *

117 000

57 000

m5d.4xlarge *

234 000

114 000

m5d.8xlarge

466 666

233 333

m5d.12xlarge

700 000

340 000

m5d.16xlarge

933 333

466 666

m5d.24xlarge

1 400 000

680 000

m5d.metal

1 400 000

680 000

* Pour ces instances, vous pouvez obtenir la performance spécifiée.

Au fur et à mesure que vous remplissez les volumes de stockage d'instance basés sur SSD pour votre instance, le nombre d'E/S en écriture que vous pouvez obtenir diminue. Ceci est dû au travail supplémentaire que le contrôleur SSD doit effectuer pour trouver de l'espace disponible, réécrire les données existantes et effacer l'espace non utilisé pour le rendre réinscriptible. Ce processus de nettoyage de la mémoire se traduit par une amplification d'écriture interne sur le disque SSD, exprimée sous la forme du rapport des opérations d'écriture SSD sur les opérations d'écriture utilisateur. Cette diminution des performances est encore plus importante si les opérations d'écriture ne sont pas exprimées en multiples de 4 096 octets ou ne sont pas alignées sur une limite de 4 096 octets. Si vous écrivez une quantité d'octets plus faible ou des octets qui ne sont pas alignés, le contrôleur SSD doit lire les données environnantes et stocker le résultat dans un nouvel emplacement. Ce modèle se traduit par une forte augmentation de l'amplification d'écriture, une latence accrue et une diminution considérable des performances d'E/S.

Les contrôleurs SSD peuvent utiliser plusieurs stratégies pour réduire l'impact de l'amplification d'écriture. Une telle stratégie consiste à réserver un espace dans le stockage d'instance SSD afin que le contrôleur puisse gérer efficacement l'espace disponible pour les opérations d'écriture. Cette solution est appelée sur-approvisionnement. Les volumes de stockage d'instance SSD fournis à une instance n'ont pas d'espace réservé pour le sur-approvisionnement. Pour réduire l'amplification d'écriture, nous vous conseillons de laisser 10 % du volume non partitionné que le contrôleur SSD pourra utiliser pour le sur-approvisionnement. Cela diminue le stockage que vous pouvez utiliser, mais augmente les performances même si le disque est proche de sa capacité maximale.

Pour les volumes de stockage d'instance qui prennent en charge TRIM, vous pouvez utiliser la commande TRIM pour informer le contrôleur SSD lorsque vous n'avez plus besoin des données que vous avez écrites. Cela fournit au contrôleur plus d'espace disponible, ce qui peut réduire l'amplification d'écriture et augmenter les performances. Pour plus d'informations, consultez Prise en charge de TRIM sur les volumes de stockage d'instance.

Fonctionnalités des instances

Voici un résumé des fonctions pour les instances à usage général :

EBS uniquement EBS NVMe Stockage d'instance Groupe de placement

A1

Oui

Oui

Non

Oui

M4

Oui

Non

Non

Oui

M5

Oui

Oui

Non

Oui

M5a

Oui

Oui

Non

Oui

M5ad

Non

Oui

NVMe *

Oui

M5d

Non

Oui

NVMe *

Oui

T2

Oui

Non

Non

Non

T3

Oui

Oui

Non

Non

T3a

Oui

Oui

Non

Non

* Le volume du périphérique racine doit être un volume Amazon EBS.

Pour plus d'informations, consultez les ressources suivantes :

Notes de mise à jour

  • Les instances M5, M5d et T3 utilisent un processeur Intel Xeon Platinum 8000 à 3,1 GHz.

  • Les instances M5a, M5ad et T3a utilisent un processeur AMD EPYC 7000 à 2,5 GHz.

  • Les instances A1 utilisent un processeur AWS Graviton à 2,3 GHz basé sur une architecture Arm 64 bits.

  • Les instances de types M4, M5, M5a, M5ad, M5d, t2.large et de plus grande taille et t3.large et de plus grande taille, ainsi que t3a.large et de plus grande taille requièrent des AMIs HVM 64 bits. Elles sont dotées d'une mémoire élevée et un système d'exploitation 64 bits est nécessaire pour tirer parti de cette capacité. Les AMI HVM offrent des performances supérieures par rapport aux AMI paravirtuelles (PV) sur les types d'instance à mémoire élevée. De plus, vous devez utiliser une AMI HVM pour tirer parti de la mise en réseau améliorée.

  • Les instances A1 présentent les exigences suivantes :

    • Les pilotes NVMe doivent être installés. Les volumes EBS sont présentés comme des périphériques de stockage NVMe en mode bloc.

    • Les pilotes Elastic Network Adapter (ENA) doivent être installés.

    • Doivent utiliser une AMI pour l'architecture Arm 64 bits.

    • Doivent prendre en charge le démarrage via UEFI avec les tables ACPI et doivent prendre en charge l'insertion à chaud ACPI des périphériques PCI.

    Les AMI suivantes répondent aux critères suivants :

    • Amazon Linux 2 (Arm 64 bits)

    • Ubuntu 16.04 ou une version ultérieure (Arm 64 bits)

    • Red Hat Enterprise Linux 7.6 ou une version ultérieure (Arm 64 bits)

    • SUSE Linux Enterprise Server 15 ou version ultérieure (Arm 64 bits)

  • Les instances M5, M5a, M5ad, M5d, T3 et T3a ont les exigences suivantes :

    Les AMI suivantes répondent aux critères suivants :

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03

    • Ubuntu 14.04 ou version ultérieure

    • Red Hat Enterprise Linux 7.4 ou version ultérieure

    • SUSE Linux Enterprise Server 12 SP2 ou version ultérieure

    • CentOS 7 ou version ultérieure

    • FreeBSD 11.1 ou version ultérieure

  • Les instances A1, M5, M5a, M5ad, M5d, T3 et T3a prennent en charge un maximum de 28 attachements, y compris les interfaces réseau, les volumes EBS et les volumes de stockage d'instance NVMe. Chaque instance possède au moins un attachement d'interface réseau. Si, par exemple, vous ne possédez pas d'interfaces réseau supplémentaires attachées sur une instance EBS uniquement, vous pouvez alors y attacher 27 volumes EBS.

  • Le lancement d'une instance en matériel nu démarre le serveur sous-jacent, qui inclut la vérification de tous les composants du matériel et du microprogramme. Cela signifie que 20 minutes peuvent s'écouler entre le moment où l'instance passe à l'état d'exécution et le moment où elle devient disponible sur le réseau.

  • Attacher ou détacher des volumes EBS ou des interfaces réseau secondaires à partir d'une instance en matériel nu requiert la prise en charge de l'enfichage à chaud natif de PCIe. Amazon Linux 2 et les dernières versions de l'Amazon Linux AMI prennent en charge l'enfichage à chaud natif de PCIe, ce qui n'est pas le cas des versions antérieures. Vous devez activer les options de configuration suivantes du noyau Linux :

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Les instances en matériel nu utilisent un périphérique série basé sur PCI plutôt qu'un périphérique série basé sur le port d'E/S. Le noyau Linux kernel en amont et les dernières AMI Amazon Linux prennent en charge ce périphérique. Les instances en matériel nu fournissent également un tableau SPCR ACPI afin de permettre au système d'utiliser automatiquement le périphérique série basé sur PCI. Les dernières AMI Windows utilisent automatiquement le périphérique série basé sur PCI.

  • system-logind ou acpid doit être installé pour que les instances A1, M5, M5a, M5ad, M5d, T3 et T3a prennent en charge les arrêt normaux via des demandes d'API.

  • Le nombre total d'instances que vous pouvez lancer dans une région est soumis à une limite, de même qu'il existe des limites supplémentaires pour certains types d'instance. Pour plus d'informations, consultez Combien d'instances puis-je exécuter dans Amazon EC2 ?. Pour demander une augmentation des limites, utilisez le formulaire de demande d'instance Amazon EC2.