Für Datenverarbeitung optimierte Instances - Amazon Elastic Compute Cloud

Für Datenverarbeitung optimierte Instances

Für die Datenverarbeitung optimierte Instances sind ideal für rechenintensive Anwendungen, die von Hochleistungsprozessoren profitieren.

C5- und C5n-Instances

Diese Instances eignen sich ideal für:

  • Stapelverarbeitung von Workloads

  • Medientranscodierung

  • Leistungsstarke Web-Server

  • High Performance Computing (HPC)

  • Wissenschaftsmodelle

  • Dedizierte Spiele-Server und Plattformen zur Anzeigenschaltung

  • Machine Learning-Inferenz und andere rechenintensive Anwendungen

Bare-Metal-Instances, z. B. c5.metal, ermöglichen Ihren Anwendungen direkten Zugriff auf die physischen Ressourcen des Hostservers, wie z. B. Prozessoren und Speicher.

Weitere Informationen finden Sie unter Amazon EC2 C5 Instances.

C6g- und C6gd-Instances

Diese Instances werden von AWS Graviton2-Prozessoren betrieben und eignen sich ideal für die Ausführung erweiterter, rechenintensiver Workloads, wie z. B. die folgenden:

  • High Performance Computing (HPC)

  • Stapelverarbeitung

  • Werbebereitstellung

  • Videokodierung

  • Gaming-Server

  • Wissenschaftsmodelle

  • Verteilte Analysen

  • CPU-basierte Machine Learning-Inferenz

Bare-Metal-Instances, z. B. c6g.metal, ermöglichen Ihren Anwendungen direkten Zugriff auf die physischen Ressourcen des Hostservers, wie z. B. Prozessoren und Speicher.

Weitere Informationen finden Sie unter Amazon EC2-C6g-Instances.

Hardwarespezifikationen

Im Folgenden finden Sie eine Zusammenfassung der Hardware-Spezifikationen für Instances, die für die Datenverarbeitung optimiert sind.

Instance-Typ Standard vCPUs Arbeitsspeicher (GiB)
c4.large 2 3,75
c4.xlarge 4 7,5
c4.2xlarge 8 15
c4.4xlarge 16 30
c4.8xlarge 36 60
c5.large 2 4
c5.xlarge 4 8
c5.2xlarge 8 16
c5.4xlarge 16 32
c5.9xlarge 36 72
c5.12xlarge 48 96
c5.18xlarge 72 144
c5.24xlarge 96 192
c5.metal 96 192
c5a.large 2 4
c5a.xlarge 4 8
c5a.2xlarge 8 16
c5a.4xlarge 16 32
c5a.8xlarge 32 64
c5a.12xlarge 48 96
c5a.16xlarge 64 128
c5a.24xlarge 96 192
c5ad.large 2 4
c5ad.xlarge 4 8
c5ad.2xlarge 8 16
c5ad.4xlarge 16 32
c5ad.8xlarge 32 64
c5ad.12xlarge 48 96
c5ad.16xlarge 64 128
c5ad.24xlarge 96 192
c5d.large 2 4
c5d.xlarge 4 8
c5d.2xlarge 8 16
c5d.4xlarge 16 32
c5d.9xlarge 36 72
c5d.12xlarge 48 96
c5d.18xlarge 72 144
c5d.24xlarge 96 192
c5d.metal 96 192
c5n.large 2 5.25
c5n.xlarge 4 10.5
c5n.2xlarge 8 21
c5n.4xlarge 16 42
c5n.9xlarge 36 96
c5n.18xlarge 72 192
c5n.metal 72 192
c6g.medium 1 2
c6g.large 2 4
c6g.xlarge 4 8
c6g.2xlarge 8 16
c6g.4xlarge 16 32
c6g.8xlarge 32 64
c6g.12xlarge 48 96
c6g.16xlarge 64 128
c6g.metal 64 128
c6gd.medium 1 2
c6gd.large 2 4
c6gd.xlarge 4 8
c6gd.2xlarge 8 16
c6gd.4xlarge 16 32
c6gd.8xlarge 32 64
c6gd.12xlarge 48 96
c6gd.16xlarge 64 128
c6gd.metal 64 128

Weitere Informationen zu den Hardware-Spezifikationen für jeden Amazon EC2-Instance-Typ finden Sie unter Amazon EC2-Instance-Typen.

Weitere Informationen zur Angabe von CPU-Optionen finden Sie unter Optimierung der CPU-Optionen.

Instance-Leistung

EBS-optimierte Instances bieten die beste Leistung für Ihre EBS-Volumes, indem der Datenverkehr zwischen Amazon Amazon EBS-E/A und anderem Netzwerk-Datenverkehr von Ihrer Instance optimiert wird. Einige Instances, die für die Datenverarbeitung optimiert sind, sind standardmäßig und ohne zusätzliche Kosten EBS-optimiert. Weitere Informationen finden Sie unter Amazon EBS–optimierte Instances.

Bei einigen Instance-Typen, die für die Datenverarbeitung optimiert sind, ist es möglich, den C- und P-Zustand von Prozessoren unter Linux zu steuern. C-Zustände steuern den Ruhezustand eines Kerns im inaktiven Zustand. P-Zustände steuern die gewünschte Leistung (CPU-Frequenz) eines Kern. Weitere Informationen finden Sie unter Steuerung des Prozessorzustands für Ihre EC2-Instance.

Netzwerkleistung

Sie können erweiterte Netzwerke für unterstützte Instance-Typen aktivieren, um eine geringere Latenz, einen geringeren Netzwerkjitter und eine höhere PPS (Paket pro Sekunde)-Leistung zu erzielen. Die meisten Anwendungen brauchen kein gleichbleibend hohes Niveau an Netzwerkleistung, können aber vom Zugriff auf eine erhöhte Bandbreite profitieren, wenn sie Daten senden oder empfangen. Weitere Informationen finden Sie unter Enhanced Networking unter Linux.

Im Folgenden finden Sie eine Zusammenfassung der Netzwerkleistung für Instances, die für die Datenverarbeitung optimiert sind, und die Enhanced Networking unterstützen.

Instance-Typ Netzwerkleistung Enhanced Networking
c5.4xlarge und kleiner | c5d.4xlarge und kleiner | c6g.4xlarge und kleiner | c6gd.4xlarge und kleiner | Bis zu 10 Gbit/s † ENA
c5.9xlarge | c5d.9xlarge 10 Gbit/s ENA
c5.12xlarge | c5d.12xlarge | c6g.8xlarge | c6gd.8xlarge 12 Gbit/s ENA
c6g.12xlarge | c6gd.12xlarge 20 Gbit/s ENA
c5n.4xlarge und kleiner Bis zu 25 Gbit/s † ENA
c5.18xlarge | c5.24xlarge | c5.metal | c5d.18xlarge | c5d.24xlarge | c5d.metal | c6g.16xlarge | c6g.metal | c6gd.16xlarge | c6gd.metal 25 Gbit/s ENA
c5n.9xlarge 50 Gbit/s ENA
c5n.18xlarge | c5n.metal 100 Gbit/s ENA
c4.large Mittel Intel 82599 VF
c4.xlarge | c4.2xlarge | c4.4xlarge Hoch Intel 82599 VF
c4.8xlarge 10 Gbit/s Intel 82599 VF

† Diese Instances nutzen ein Netzwerk-E/A-Guthabensystem, mit dem Instances Netzwerkbandbreite basierend auf der durchschnittlichen Bandbreitennutzung zugewiesen wird. Sie sammeln Guthaben an, wenn ihre Bandbreite unter den Basisbandbreite liegt, und können diese Guthaben verwenden, wenn sie Netzwerk-Datenübertragungen durchführen. Um weitere Informationen zu erhalten, öffnen Sie einen Supportfall und bitten Sie um die Baseline-Bandbreite für die einzelnen Instance-Typen, an denen Sie interessiert sind.

E/A-Leistung von SSDs

Wenn Sie ein Linux-AMI mit der Kernel-Version 4.4 oder höher sowie alle in der Instance verfügbaren SSD-basierten Instance-Speicher-Volumes verwenden, können Sie (bei einer Blockgröße von 4 096 Byte) die in der folgende Tabelle aufgeführte IOPS-Leistung erreichen (bei Sättigung der Warteschlangentiefe). Andernfalls fällt die IOPS-Leistung niedriger aus.

Instance-Größe 100 % wahlfreie Lese-IOPS Schreib-IOPS
c5ad.large 16.283 7.105
c5ad.xlarge 32.566 14.211
c5ad.2xlarge 65.132 28.421
c5ad.4xlarge 130.263 56.842
c5ad.8xlarge 260.526 113.684
c5ad.12xlarge 412 500 180 000
c5ad.16xlarge 521.053 227.368
c5ad.24xlarge 825 000 360 000
c5d.large * 20 000 9 000
c5d.xlarge * 40 000 18 000
c5d.2xlarge * 80 000 37 000
c5d.4xlarge * 175 000 75 000
c5d.9xlarge 350 000 170 000
c5d.12xlarge 700 000 340 000
c5d.18xlarge 700 000 340 000
c5d.24xlarge 1 400 000 680 000
c5d.metal 1 400 000 680 000
c6gd.medium 13.438 5.625
c6gd.large 26.875 11.250
c6gd.xlarge 53.750 22.500
c6gd.2xlarge 107.500 45.000
c6gd.4xlarge 215-000 90.000
c6gd.8xlarge 430.000 180 000
c6gd.12xlarge 645.000 270.000
c6gd.16xlarge 860.000 360 000
c6gd.metal 860.000 360 000

* Bei diesen Instances können Sie eine Leistung bis zu den angegebenen Werten erreichen.

Die Anzahl der erreichten Schreib-IOPS nimmt in dem Maß ab, in dem Sie die SSD-basierten Instance-Speicher-Volumes für Ihre Instance mit Daten belegen. Der Grund dafür ist der zusätzliche Arbeitsaufwand für den SSD-Controller, der verfügbaren Speicherplatz suchen, vorhandene Daten neu schreiben und ungenutzten Speicherplatz löschen muss, sodass er neu beschrieben werden kann. Dieser Prozess der Speicherbereinigung führt zu einer internen Write Amplification in der SSD; diese wird im Verhältnis der SSD-Schreibvorgänge zu den Benutzer-Schreibvorgängen ausgedrückt. Dieser Leistungsabfall ist sogar noch größer, wenn die Schreibvorgänge nicht in Vielfachen von 4 096 Byte durchgeführt oder nicht auf eine 4 096 Byte-Grenze ausgerichtet werden. Wenn eine kleinere Anzahl von Bytes oder nicht ausgerichtete Bytes geschrieben werden, muss der SSD-Controller die Daten in der Umgebung auslesen und an einem neuen Ort speichern. Dieses Muster führt zu einer erheblich größeren Write Amplification, einer höheren Latenz und zu dramatischen E/A-Leistungseinbußen.

SSD-Controller können verschiedenen Strategien anwenden, um die Auswirkungen der Write Amplification zu verringern. Eine dieser Strategien besteht darin, Speicherplatz des SSD-Instance-Speichers zu reservieren, sodass der Controller den für Schreibvorgänge verfügbaren Speicherplatz effizienter verwalten kann. Diese Methode wird als Overprovisioning (übermäßige Bereitstellung) bezeichnet. Die SSD-basierten Instance-Speicher-Volumes haben keinen für das Overprovisioning reservierten Speicherplatz zur Verfügung. Zur Verringerung der Write Amplification empfehlen wir, 10 % eines Volumes nicht zu partitionieren, sodass der SSD-Controller diesen Speicherplatz für das Overprovisioning verwenden kann. Dadurch steht zwar weniger Speicherplatz zur Verfügung, aber die Leistung wird verbessert – auch wenn der Datenträger fast vollständig belegt ist.

Bei Instance-Speicher-Volumes, die TRIM unterstützen, können Sie den TRIM-Befehl dazu verwenden, dem SSD-Controller mitzuteilen, wann Sie Daten nicht mehr benötigen, die Sie geschrieben haben. Auf diese Weise hat der Controller mehr freien Speicherplatz zur Verfügung, wodurch die Write Amplification reduziert und die Leistung erhöht wird. Weitere Informationen finden Sie unter TRIM-Unterstützung für Instance-Speicher-Volumes.

Funktionen von Instances

Im Folgenden finden Sie eine Zusammenfassung von Funktionen für Datenverarbeitungs-optimierte Instances:

Nur EBS NVMe-EBS Instance-Speicher Platzierungsgruppe

C4

Ja

Nein

Nein

Ja

C5

Ja

Ja

Nein

Ja

C5a

Ja

Ja

Nein

Ja

C5ad

Nein

Ja

NVMe *

Ja

C5d

Nein

Ja

NVMe *

Ja

C5n

Ja

Ja

Nein

Ja

C6g

Ja

Ja

Nein

Ja

C6gd

Nein

Ja

NVMe *

Ja

* Der Root-Gerät-Datenträger muss ein Amazon EBS-Volume sein.

Weitere Informationen finden Sie unter:

Versionshinweise

  • C5- und C5d-Instances verfügen über einen Intel Xeon Platinum 8000-Prozessor entweder der ersten (SkyLake-SP) oder der zweiten Generation (Cascade Lake) mit 3,1 GHz.

  • C5a- und C5ad-Instances verfügen über einen AMD EPYC-Prozessor der zweiten Generation (Rome), der mit einer Frequenz von bis zu 3,3 arbeitet. GHz.

  • C6g- und C6gd-Instances nutzen einen AWS Graviton2-Prozessor auf der Basis der 64-Bit ARM-Architektur.

  • C4-Instances und Instances, die auf dem Nitro-System basieren, erfordern 64-Bit-EBS-gestützte HVM-AMIs. Sie haben einen großen Arbeitsspeicher und erfordern ein 64-Bit-Betriebssystem, um diese Kapazität nutzen zu können. HVM-AMIs bieten im Vergleich zu Paravirtual (PV)-AMIs bei High-Memory-Instance-Typen hervorragende Leistung. Verwenden Sie zusätzlich ein HVM-AMI, um die verbesserte Netzwerkleistung nutzen zu können.

  • Für Instances, die auf dem Nitro-System basieren, gelten die folgenden Anforderungen:

    Die folgenden Linux-AMIs erfüllen diese Anforderungen:

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03

    • Ubuntu 14.04 (mit linux-aws-Kernel) oder höher

    • Red Hat Enterprise Linux 7.4 oder höher

    • SUSE Linux Enterprise Server 12 SP2 oder höher

    • CentOS 7.4.1708 oder höher

    • FreeBSD 11.1 oder höher

    • Debian GNU/Linux 9 oder höher

  • Für Instances mit AWS Graviton-Prozessoren gelten die folgenden Anforderungen:

    • Sie müssen eine AMI für die 64-Bit-ARM-Architektur verwenden.

    • Sie müssen das Booten im UEFI-Modus mit ACPI-Tabellen sowie das ACPI Hot-Plug für PCI-Geräte unterstützen.

    Die folgenden AMIs erfüllen diese Anforderungen:

    • Amazon Linux 2 (64-Bit ARM)

    • Ubuntu 16.04 oder höher (64-Bit ARM)

    • Red Hat Enterprise Linux 8.0 oder höher (64-Bit ARM)

    • SUSE Linux Enterprise Server 15 oder höher (64-Bit ARM)

    • Debian 10 oder höher (64-Bit-Arm)

  • Instances, die auf den Nitro System-Instances basieren, unterstützen maximal 28 Anhänge, einschließlich Netzwerkschnittstellen, EBS-Volumes und NVMe-Instance-Speicher-Volumes. Weitere Informationen finden Sie unter Nitro-System-Volumenbegrenzungen.

  • Wenn eine Bare-Metal-Instance gestartet wird, wird der zugrunde liegende Server gestartet, wobei alle Hardware- und Firmwarekomponenten überprüft werden. Dies bedeutet, dass es ab dem Zeitpunkt, an dem die Instance in den Betriebszustand übergeht, 20 Minuten dauern kann, bis sie über das Netzwerk verfügbar wird.

  • Zum Anfügen und Trennen von EBS-Volumes oder sekundären Netzwerkschnittstellen von einer Bare-Metal-Instance wird nativer PCIe-Hotplug-Support benötigt. Amazon Linux 2 und die neuesten Versionen von Amazon Linux AMI unterstützen im Gegensatz zu älteren Versionen native PCIe-Hotplugs. Sie müssen die folgenden Konfigurationsoptionen des Linux-Kernels aktivieren:

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Bare-Metal-Instances nutzen anstelle eines auf dem E/A-Port basierenden seriellen Geräts ein PCI-basiertes serielles Gerät. Der Linux-Upstream-Kernel und die neuesten Amazon Linux AMIs unterstützen dieses Gerät. Bare-Metal-Instances ermöglichen dem System über eine ACPI SPCR-Tabelle zudem, das PCI-basierte serielle Gerät automatisch zu nutzen. Die neuesten Windows-AMIs nutzen automatisch das PCI-basierte serielle Gerät.

  • Auf Instances, die auf dem Nitro-System basieren, sollte acpid installiert sein, um das saubere Herunterfahren über API-Anforderungen zu unterstützen.

  • Die Gesamtanzahl der Instances, die Sie in einer Region starten können, ist begrenzt. Für bestimmte Instance-Typen gelten zusätzliche Einschränkungen. Weitere Informationen finden Sie unter Wie viele Instances kann ich in Amazon EC2 ausführen? in Amazon EC2 – Häufig gestellte Fragen.