Instances de calcul optimisé - Amazon Elastic Compute Cloud

Instances de calcul optimisé

Les instances optimisées pour le calcul sont particulièrement adaptées aux applications de calcul qui tirent parti de processeurs aux performances élevées. Elles conviennent aux applications suivantes :

  • Charges de travail de traitement par batch

  • Transcodage multimédia

  • Serveurs web hautes performances

  • Calcul hautes performances (HPC)

  • Modélisation scientifique

  • Serveurs de jeux dédiés et moteurs de diffusion de publicités

  • Inférence d'apprentissage machine et autre applications de calcul intensif

Pour plus d'informations, consultez Instances C5 Amazon EC2.

Spécifications matérielles

Vous trouverez ci-dessous un résumé des spécifications matérielles relatives aux instances optimisées pour le calcul.

Type d'instance vCPU par défaut Mémoire (Gio)
c4.large 2 3,75
c4.xlarge 4 7,5
c4.2xlarge 8 15
c4.4xlarge 16 30
c4.8xlarge 36 60
c5.large 2 4
c5.xlarge 4 8
c5.2xlarge 8 16
c5.4xlarge 16 32
c5.9xlarge 36 72
c5.12xlarge 48 96
c5.18xlarge 72 144
c5.24xlarge 96 192
c5.metal 96 192
c5d.large 2 4
c5d.xlarge 4 8
c5d.2xlarge 8 16
c5d.4xlarge 16 32
c5d.9xlarge 36 72
c5d.12xlarge 48 96
c5d.18xlarge 72 144
c5d.24xlarge 96 192
c5d.metal 96 192
c5n.large 2 5,25
c5n.xlarge 4 10,5
c5n.2xlarge 8 21
c5n.4xlarge 16 42
c5n.9xlarge 36 96
c5n.18xlarge 72 192
c5n.metal 72 192

Pour de plus amples informations sur les spécifications matérielles pour chaque type d'instance Amazon EC2, veuillez consulter Types d'instance Amazon EC2.

Pour plus d'informations sur la spécification des options d'UC, consultez Optimisations des options d'UC.

Performances de l'instance

Les instances optimisées EBS vous permettent d'obtenir régulièrement des performances élevées pour vos volumes EBS en éliminant les conflits entre les E/S Amazon EBS et tout autre trafic réseau de votre instance Certaines instances optimisées pour le calcul sont optimisées pour EBS par défaut sans frais supplémentaires. Pour de plus amples informations, veuillez consulter Amazon EBS–Instances optimisées.

Certains types d'instances optimisés pour le calcul offrent la possibilité de contrôler les états C et P du processeur sous Linux. Les états C contrôlent les niveaux de veille d'un noyau lorsqu'il est inactif, tandis que les états P contrôlent les performances attendues d'un noyau (en termes de fréquence d'UC). Pour plus d'informations, consultez Contrôle des états du processeur pour votre instance EC2.

Performances réseau

Vous pouvez activer la mise en réseau améliorée sur les types d'instance pris en charge pour fournir des latences plus faibles, une instabilité moindre sur le réseau et des performances de débit en paquets par seconde (PPS) plus élevées. La plupart des applications ne nécessitent pas en permanence un haut niveau de performances réseau, mais peuvent tirer profit d'un accès à une bande passante accrue lorsqu'elles envoient ou reçoivent des données. Pour plus d'informations, consultez Mise en réseau améliorée sur Linux.

Vous trouverez ci-dessous un résumé des performances réseau relatives aux instances optimisées pour le calcul qui prennent en charge la mise en réseau améliorée.

Type d'instance Performances réseau Mise en réseau améliorée
c5.4xlarge et tailles inférieures | c5d.4xlarge et tailles inférieures Jusqu'à 10 Gbit/s † ENA
c5.9xlarge | c5d.9xlarge 10 Gb/s ENA
c5.12xlarge | c5d.12xlarge 12 Gb/s ENA
c5n.4xlarge et tailles inférieures Jusqu'à 25 Gbit/s † ENA
c5.18xlarge | c5.24xlarge | c5.metal | c5d.18xlarge | c5d.24xlarge | c5d.metal 25 Gb/s ENA
c5n.9xlarge 50 Gb/s ENA
c5n.18xlarge | c5n.metal 100 Gb/s ENA
c4.large Modérées Intel 82599 VF
c4.xlarge | c4.2xlarge | c4.4xlarge Elevé Intel 82599 VF
c4.8xlarge 10 Gb/s Intel 82599 VF

† Ces instances utilisent un mécanisme de crédit d'E/S réseau pour attribuer la bande passante réseau aux instances en fonction de l'utilisation moyenne de la bande passante. Elles accumulent des crédits lorsque la bande passante est inférieure à la bande passante de référence et peuvent les utiliser quand elles effectuent les transferts de données réseau. Pour de plus amples informations, ouvrez un dossier de support et renseignez-vous sur la bande passante de référence pour les types d'instance spécifiques qui vous intéressent.

Performances d'E/S sur SSD

Si vous utilisez une AMI Linux avec un noyau de version 4.4 ou ultérieure et que vous utilisez tous les volumes de stockage d'instance basés sur SSD disponibles pour votre instance, vous pouvez obtenir les performances d'IOPS (taille de bloc de 4 096 octets) répertoriées dans le tableau suivant (lorsque la profondeur de la file d'attente est saturée). Sinon, vous obtenez des performances d'I/O inférieures.

Taille d'instance E/S par seconde en lecture aléatoires 100 % E/S par seconde en écriture
c5d.large *

20 000

9 000

c5d.xlarge *

40 000

18 000

c5d.2xlarge *

80 000

37 000

c5d.4xlarge *

175 000

75 000

c5d.9xlarge

350 000

170 000

c5d.12xlarge

700 000

340 000

c5d.18xlarge

700 000

340 000

c5d.24xlarge

1 400 000

680 000

c5d.metal

1 400 000

680 000

* Pour ces instances, vous pouvez obtenir la performance spécifiée.

Au fur et à mesure que vous remplissez les volumes de stockage d'instance basés sur SSD pour votre instance, le nombre d'E/S en écriture que vous pouvez obtenir diminue. Ceci est dû au travail supplémentaire que le contrôleur SSD doit effectuer pour trouver de l'espace disponible, réécrire les données existantes et effacer l'espace non utilisé pour le rendre réinscriptible. Ce processus de nettoyage de la mémoire se traduit par une amplification d'écriture interne sur le disque SSD, exprimée sous la forme du rapport des opérations d'écriture SSD sur les opérations d'écriture utilisateur. Cette diminution des performances est encore plus importante si les opérations d'écriture ne sont pas exprimées en multiples de 4 096 octets ou ne sont pas alignées sur une limite de 4 096 octets. Si vous écrivez une quantité d'octets plus faible ou des octets qui ne sont pas alignés, le contrôleur SSD doit lire les données environnantes et stocker le résultat dans un nouvel emplacement. Ce modèle se traduit par une forte augmentation de l'amplification d'écriture, une latence accrue et une diminution considérable des performances d'E/S.

Les contrôleurs SSD peuvent utiliser plusieurs stratégies pour réduire l'impact de l'amplification d'écriture. Une telle stratégie consiste à réserver un espace dans le stockage d'instance SSD afin que le contrôleur puisse gérer efficacement l'espace disponible pour les opérations d'écriture. Cette solution est appelée sur-approvisionnement. Les volumes de stockage d'instance SSD fournis à une instance n'ont pas d'espace réservé pour le sur-approvisionnement. Pour réduire l'amplification d'écriture, nous vous conseillons de laisser 10 % du volume non partitionné que le contrôleur SSD pourra utiliser pour le sur-approvisionnement. Cela diminue le stockage que vous pouvez utiliser, mais augmente les performances même si le disque est proche de sa capacité maximale.

Pour les volumes de stockage d'instance qui prennent en charge TRIM, vous pouvez utiliser la commande TRIM pour informer le contrôleur SSD lorsque vous n'avez plus besoin des données que vous avez écrites. Cela fournit au contrôleur plus d'espace disponible, ce qui peut réduire l'amplification d'écriture et augmenter les performances. Pour plus d'informations, consultez Prise en charge de TRIM sur les volumes de stockage d'instance.

Fonctionnalités des instances

Voici un résumé des fonctionnalités destinées aux instances optimisées pour le calcul :

EBS uniquement EBS NVMe Stockage d'instance Groupe de placement

C4

Oui

Non

Non

Oui

C5

Oui

Oui

Non

Oui

C5d

Non

Oui

NVMe *

Oui

C5n

Oui

Oui

Non

Oui

* Le volume du périphérique racine doit être un volume Amazon EBS.

Pour plus d'informations, consultez les ressources suivantes :

Notes de mise à jour

  • Les instances C5 et C5d sont équipées d'un processeur Intel Xeon Platinum 8000 de 3,1 GHz de la première génération (Skylake-SP) ou de la deuxième génération (Cascade Lake).

  • Les instances C4 et les instances basées sur le système Nitro nécessitent des AMIs HVM 64 bits basées sur EBS. Elles sont dotées d'une mémoire élevée et un système d'exploitation 64 bits est nécessaire pour tirer parti de cette capacité. Les AMI HVM offrent des performances supérieures par rapport aux AMI paravirtuelles (PV) sur les types d'instance à mémoire élevée. De plus, vous devez utiliser une AMI HVM pour tirer parti de la mise en réseau améliorée.

  • Les instances reposant sur le système Nitro présentent les exigences suivantes :

    Les AMI Linux suivantes répondent aux critères suivants :

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03

    • Ubuntu 14.04 (avec le noyau linux-aws) ou version ultérieure

    • Red Hat Enterprise Linux 7.4 ou version ultérieure

    • SUSE Linux Enterprise Server 12 SP2 ou version ultérieure

    • CentOS 7.4.1708 ou version ultérieure

    • FreeBSD 11.1 ou version ultérieure

    • Debian GNU/Linux 9 ou version ultérieure

  • Les instances reposant sur le système Nitro prennent en charge un maximum de 28 attachements, y compris les interfaces réseau, les volumes EBS et les volumes de stockage d'instance NVMe. Pour plus d'informations, consultez Limites de volume du système Nitro.

  • Le lancement d'une instance en matériel nu démarre le serveur sous-jacent, qui inclut la vérification de tous les composants du matériel et du microprogramme. Cela signifie que 20 minutes peuvent s'écouler entre le moment où l'instance passe à l'état d'exécution et le moment où elle devient disponible sur le réseau.

  • Attacher ou détacher des volumes EBS ou des interfaces réseau secondaires à partir d'une instance en matériel nu requiert la prise en charge de l'enfichage à chaud natif de PCIe. Amazon Linux 2 et les dernières versions de l'Amazon Linux AMI prennent en charge l'enfichage à chaud natif de PCIe, ce qui n'est pas le cas des versions antérieures. Vous devez activer les options de configuration suivantes du noyau Linux :

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Les instances en matériel nu utilisent un périphérique série basé sur PCI plutôt qu'un périphérique série basé sur le port d'E/S. Le noyau Linux kernel en amont et les dernières AMI Amazon Linux prennent en charge ce périphérique. Les instances en matériel nu fournissent également un tableau SPCR ACPI afin de permettre au système d'utiliser automatiquement le périphérique série basé sur PCI. Les dernières AMI Windows utilisent automatiquement le périphérique série basé sur PCI.

  • acpid doit être installé sur les instances reposant sur le système Nitro afin que ces instances prennent en charge les fermetures nettes via les demandes d'API.

  • Le nombre total d'instances que vous pouvez lancer dans une région est soumis à une limite, et il existe des limites supplémentaires sur certains types d'instances. Pour de plus amples informations, veuillez consulter Combien d'instances est-il possible d'exécuter dans Amazon EC2 ? dans les questions fréquentes Amazon EC2.