Amazon Elastic Compute Cloud
Benutzerhandbuch für Linux-Instances

RAM-optimierte Instances

Speicheroptimierte Instances sind darauf ausgelegt, eine schnelle Leistung bei Arbeitslasten zu erreichen, die große Datensätze im Arbeitsspeicher verarbeiten.

Instances vom Typ R4, R5, R5a, R5ad, R5d

Diese Instances eignen sich sehr gut für die folgenden Anwendungen:

  • Relationale (MySQL-) und NoSQL- (MongoDB-, Cassandra)-Hochleistungsdatenbanken.

  • Verteilte webweite Cache-Speicher, die In-Memory-Caching von Schlüsselwertdaten bereitstellen (Memcached und Redis).

  • In-Memory-Datenbanken, die optimierte Datenspeicherformate und Analysen für Business Intelligence nutzen (z. B. SAP HANA).

  • Anwendungen, die große unstrukturierte Datenmengen in Echtzeit verarbeiten (Finanzdienstleister, Hadoop/Spark-Cluster).

  • High Performance Computing(HPC)- und Electronic Design Automation(EDA)-Anwendungen.

r5.metal- und r5d.metal-Instances ermöglichen Ihren Anwendungen direkten Zugriff auf physische Ressourcen des Hostservers, wie z. B. Prozessoren und Speicher. Diese Instances eignen sich ideal für:

  • Workloads, die Zugang zu Low-Level-Hardware-Funktionen (wie Intel VT-x) benötigen, die in virtualisierten Umgebungen nicht verfügbar sind oder nicht vollständig unterstützt werden

  • Anwendungen, die aufgrund von Lizenz- oder Support-Anforderungen in nicht virtualisierten Umgebungen ausgeführt werden müssen

Weitere Informationen finden Sie unter Amazon EC2 R5-Instances.

Instances mit hoher Speicherkapazität

High-Memory-Instances (u-6tb1.metal, u-9tb1.metal, and u-12tb1.metal) bieten 6 TiB, 9 TiB und 12 TiB Speicher pro Instance. Diese Instances sind für den Betrieb großer In-Memory-Datenbanken ausgelegt, einschließlich Produktionsinstallationen von SAP HANA. Sie bieten eine Bare-Metal-Leistung mit direktem Zugriff auf die Host-Hardware.

X1-Instances

Diese Instances eignen sich sehr gut für die folgenden Anwendungen:

  • In-Memory-Datenbanken wie SAP HANA einschließlich SAP-zertifiziertem Support für Business Suite S/4HANA, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) und Data Mart Solutions on HANA. Weitere Informationen finden Sie unter SAP HANA in der AWS Cloud.

  • Big-Data-Verarbeitungssysteme wie Apache Spark oder Presto.

  • High Performance Computing(HPC)-Anwendungen

Weitere Informationen finden Sie unter Amazon EC2 X1 Instances.

X1e-Instances

Diese Instances eignen sich sehr gut für die folgenden Anwendungen:

  • Hochleistungsdatenbanken.

  • In-Memory-Datenbanken wie SAP HANA. Weitere Informationen finden Sie unter SAP HANA in der AWS Cloud.

  • Speicherintensive Unternehmensanwendungen.

Weitere Informationen finden Sie unter Amazon EC2 X1e-Instances.

z1d-Instances

Diese Instances bieten hohe Rechenleistung und viel Arbeitsspeicher und sind für die folgenden Anwendungen optimal geeignet:

  • Electronic Design Automation (EDA)

  • Workloads relationaler Datenbanken

z1d.metal-Instances ermöglichen Ihren Anwendungen direkten Zugriff auf physische Ressourcen des Hostservers, wie z. B. Prozessoren und Speicher. Diese Instances eignen sich ideal für:

  • Workloads, die Zugang zu Low-Level-Hardware-Funktionen (wie Intel VT-x) benötigen, die in virtualisierten Umgebungen nicht verfügbar sind oder nicht vollständig unterstützt werden

  • Anwendungen, die aufgrund von Lizenz- oder Support-Anforderungen in nicht virtualisierten Umgebungen ausgeführt werden müssen

Weitere Informationen finden Sie unter Amazon EC2 z1d-Instances.

Hardware

Im Folgenden finden Sie eine Zusammenfassung der Hardware-Spezifikationen für speicheroptimierte Instances.

Instance-Typ Standard vCPUs Arbeitsspeicher (GiB)
r4.large 2 15,25
r4.xlarge 4 30,5
r4.2xlarge 8 61
r4.4xlarge 16 122
r4.8xlarge 32 244
r4.16xlarge 64 488
r5.large 2 16
r5.xlarge 4 32
r5.2xlarge 8 64
r5.4xlarge 16 128
r5.8xlarge 32 256
r5.12xlarge 48 384
r5.16xlarge 64 512
r5.24xlarge 96 768
r5.metal 96 768
r5a.large 2 16
r5a.xlarge 4 32
r5a.2xlarge 8 64
r5a.4xlarge 16 128
r5a.8xlarge 32 256
r5a.12xlarge 48 384
r5a.16xlarge 64 512
r5a.24xlarge 96 768
r5ad.large 2 16
r5ad.xlarge 4 32
r5ad.2xlarge 8 64
r5ad.4xlarge 16 128
r5ad.12xlarge 48 384
r5ad.24xlarge 96 768
r5d.large 2 16
r5d.xlarge 4 32
r5d.2xlarge 8 64
r5d.4xlarge 16 128
r5d.8xlarge 32 256
r5d.12xlarge 48 384
r5d.16xlarge 64 512
r5d.24xlarge 96 768
r5d.metal 96 768
u-6tb1.metal 448 * 6 144
u-9tb1.metal 448 * 9 216
u-12tb1.metal 448 * 12 288
x1.16xlarge 64 976
x1.32xlarge 128 1 952
x1e.xlarge 4 122
x1e.2xlarge 8 244
x1e.4xlarge 16 488
x1e.8xlarge 32 976
x1e.16xlarge 64 1 952
x1e.32xlarge 128 3 904
z1d.large 2 16
z1d.xlarge 4 32
z1d.2xlarge 8 64
z1d.3xlarge 12 96
z1d.6xlarge 24 192
z1d.12xlarge 48 384
z1d.metal 48 384

* Jeder logische Prozessor ist ein Hyperthread mit 224 Kernen.

Weitere Informationen zu den Hardware-Spezifikationen für jeden Amazon EC2-Instance-Typ finden Sie unter Amazon EC2 Instance-Typen.

Weitere Informationen zur Angabe von CPU-Optionen finden Sie unter Optimierung der CPU-Optionen.

Arbeitsspeicherleistung

X1-Instances beinhalten skalierbareSpeicherpuffer von Intel und bieten 300 GiB/s nachhaltige Speicher-Lesebandbreite und 140 GiB/s nachhaltige Speicher-Schreibbandbreite.

Weitere Informationen darüber, wie viel RAM für speicheroptimierte Instances aktiviert werden kann, finden Sie unter Hardware.

Speicheroptimierte Instances haben einen großen Arbeitsspeicher und erfordern 64-Bit HVM-AMIs, um diese Kapazität nutzen zu können. HVM-AMIs bieten im Vergleich zu Paravirtual (PV)-AMIs bei Speicheroptimierten Instance-Typen hervorragende Leistung. Weitere Informationen finden Sie unter Linux AMI-Virtualisierungstypen.

Instance-Leistung

R4-Instances verfügen über bis zu 64 vCPUs und sind mit zwei für AWS angepassten auf E5-2686v4 basierenden Intel XEON-Prozessoren ausgestattet, die eine hohe Speicherbandbreite und größere L3-Caches bieten, um die Leistung von In-Memory-Anwendungen zu steigern.

X1e- und X1-Instances verfügen über bis zu 128 vCPUs und sind mit vier Intel Xeon E7-8880 v3-Prozessoren ausgestattet, die eine hohe Speicherbandbreite und größere L3-Caches bieten, um die Leistung von In-Memory-Anwendungen zu steigern.

High Memory Instances (u-6tb1.metal, u-9tb1.metal, and u-12tb1.metal) sind die ersten Instances, die mit einer Acht-Sockel-Plattform mit Intel Xeon Platinum 8176M (Skylake) Prozessoren der neuesten Generation betrieben werden, die für unternehmenskritische Workloads optimiert sind.

Speicheroptimierte Instances ermöglichen durch die neueste Intel AES-NI-Funktion eine höhere kryptografische Leistung, unterstützen Intel Transactional Synchronization Extensions (TSX), um die Leistung bei transaktionaler In-Memory-Datenverarbeitung zu steigern, und sie unterstützen Advanced Vector Extensions 2(Intel AVX2)-Prozessoranweisungen, um die meisten Integer-Befehle auf 256 Bits zu erweitern.

Bei einigen speicheroptimierten Instances ist es möglich, den C- und P-Zustand von Prozessoren unter Linux zu steuern. C-Zustände steuern den Ruhezustand eines Kerns im inaktiven Zustand. P-Zustände steuern die gewünschte Leistung (CPU-Frequenz) eines Kerns. Weitere Informationen finden Sie unter Steuerung des Prozessorzustands für Ihre EC2 Instance.

Netzwerkleistung

Sie können Enhanced Networking-Funktionen auf unterstützten Instance-Typen aktivieren. Enhanced Networking ermöglicht mehr Pakete pro Sekunde (PPS), weniger Netzwerk-Jitter und niedrigere Netzwerklatenz. Weitere Informationen finden Sie unter Enhanced Networking unter Linux.

Instance-Typen, die für Enhanced Networking den Elastic Network Adapter (ENA) verwenden, bieten eine hohe Paket-pro-Sekunde-Leistung mit gleichbleibend niedrigen Latenzen an. Die meisten Anwendungen brauchen kein gleichbleibend hohes Niveau an Netzwerkleistung, können aber vom Zugriff auf eine erhöhte Bandbreite profitieren, wenn sie Daten senden oder empfangen. Instance-Größen, die ENA verwenden und mit einer Netzwerkleistung von „Bis zu 10 GBit/s“ oder „Bis zu 25 GBit/s“ dokumentiert sind, nutzen ein Netzwerk-E/A-Guthabensystem, mit dem Instances Netzwerkbandbreite basierend auf der durchschnittlichen Bandbreitennutzung zugewiesen wird. Diese Instances sammeln Guthaben an, wenn ihre Netzwerkbandbreite unter den Basis-Grenzwerten liegt, und können diese Guthaben verwenden, wenn sie Netzwerk-Datenübertragungen durchführen.

Im Folgenden finden Sie eine Zusammenfassung der Netzwerkleistung für speicheroptimierte Instances, die Enhanced Networking unterstützen.

Instance-Typ Netzwerkleistung Enhanced Networking

r4.4xlarge und kleiner | r5.4xlarge und kleiner | r5a.8xlarge und kleiner | r5ad.4xlarge und kleiner | r5d.4xlarge und kleiner | x1e.8large und kleiner | z1d.3xlarge und kleiner

Bis zu 10 Gbps

ENA

r4.8xlarge | r5.8xlarge | r5.12xlarge | r5a.12xlarge | r5ad.12xlarge | r5d.8xlarge | r5d.12xlarge | x1.16xlarge | x1e.16xlarge | z1d.6xlarge

10 Gbit/s

ENA

r5a.16xlarge | r5ad.16xlarge

12 Gbit/s

ENA

r5.16xlarge | r5a.24xlarge | r5ad.24xlarge | r5d.16xlarge

20 Gbit/s

ENA

r4.16xlarge | r5.24xlarge | r5.metal | r5d.24xlarge | r5d.metal | u-6tb1.metal | u-9tb1.metal | u-12tb1.metal | x1.32xlarge | x1e.32xlarge | z1d.12xlarge | z1d.metal

25 Gbit/s

ENA

E/A-Leistung von SSDs

Wenn Sie ein Linux-AMI mit der Kernel-Version 4.4 oder höher sowie alle in der Instance verfügbaren SSD-basierten Instance-Speicher-Volumes verwenden, können Sie (bei einer Blockgröße von 4 096 Byte) die in der folgende Tabelle aufgeführte IOPS-Leistung erreichen (bei Sättigung der Warteschlangentiefe). Andernfalls fällt die IOPS-Leistung niedriger aus.

Instance-Größe 100 % wahlfreie Lese-IOPS Schreib-IOPS

r5ad.large *

30 000

15 000

r5ad.xlarge *

59 000

29 000

r5ad.2xlarge *

117 000

57 000

r5ad.4xlarge *

234 000

114 000

r5ad.12xlarge

700 000

340 000

r5ad.24xlarge

1 400 000

680 000

r5d.large *

30 000

15 000

r5d.xlarge *

59 000

29 000

r5d.2xlarge *

117 000

57 000

r5d.4xlarge *

234 000

114 000

r5d.8xlarge

466 666

233 333

r5d.12xlarge

700 000

340 000

r5d.16xlarge

933 333

466 666

r5d.24xlarge

1 400 000

680 000

r5d.metal

1 400 000

680 000

z1d.large *

30 000

15 000

z1d.xlarge *

59 000

29 000

z1d.2xlarge *

117 000

57 000

z1d.3xlarge *

175 000

75 000

z1d.6xlarge

350 000

170 000

z1d.12xlarge

700 000

340 000

z1d.metal

700 000

340 000

* Bei diesen Instances können Sie eine Leistung bis zu den angegebenen Werten erreichen.

Die Anzahl der erreichten Schreib-IOPS nimmt in dem Maß ab, in dem Sie die SSD-basierten Instance-Speicher-Volumes für Ihre Instance mit Daten belegen. Der Grund dafür ist der zusätzliche Arbeitsaufwand für den SSD-Controller, der verfügbaren Speicherplatz suchen, vorhandene Daten neu schreiben und ungenutzten Speicherplatz löschen muss, sodass er neu beschrieben werden kann. Dieser Prozess der Speicherbereinigung führt zu einer internen Write Amplification in der SSD; diese wird im Verhältnis der SSD-Schreibvorgänge zu den Benutzer-Schreibvorgängen ausgedrückt. Dieser Leistungsabfall ist sogar noch größer, wenn die Schreibvorgänge nicht in Vielfachen von 4 096 Byte durchgeführt oder nicht auf eine 4 096 Byte-Grenze ausgerichtet werden. Wenn eine kleinere Anzahl von Bytes oder nicht ausgerichtete Bytes geschrieben werden, muss der SSD-Controller die Daten in der Umgebung auslesen und an einem neuen Ort speichern. Dieses Muster führt zu einer erheblich größeren Write Amplification, einer höheren Latenz und zu dramatischen E/A-Leistungseinbußen.

SSD-Controller können verschiedenen Strategien anwenden, um die Auswirkungen der Write Amplification zu verringern. Eine dieser Strategien besteht darin, Speicherplatz des SSD-Instance-Speichers zu reservieren, sodass der Controller den für Schreibvorgänge verfügbaren Speicherplatz effizienter verwalten kann. Diese Methode wird als Overprovisioning (übermäßige Bereitstellung) bezeichnet. Die SSD-basierten Instance-Speicher-Volumes haben keinen für das Overprovisioning reservierten Speicherplatz zur Verfügung. Zur Verringerung der Write Amplification empfehlen wir, 10 % eines Volumes nicht zu partitionieren, sodass der SSD-Controller diesen Speicherplatz für das Overprovisioning verwenden kann. Dadurch steht zwar weniger Speicherplatz zur Verfügung, aber die Leistung wird verbessert – auch wenn der Datenträger fast vollständig belegt ist.

Bei Instance-Speicher-Volumes, die TRIM unterstützen, können Sie den TRIM-Befehl dazu verwenden, dem SSD-Controller mitzuteilen, wann Sie Daten nicht mehr benötigen, die Sie geschrieben haben. Auf diese Weise hat der Controller mehr freien Speicherplatz zur Verfügung, wodurch die Write Amplification reduziert und die Leistung erhöht wird. Weitere Informationen finden Sie unter TRIM-Unterstützung für Instance-Speicher-Volumes.

Funktionen von Instances

Im Folgenden finden Sie eine Zusammenfassung von Funktionen für speicheroptimierte Instances.

Nur EBS NVMe-EBS Instance-Speicher Platzierungsgruppe

R4

Ja

Nein

Nein

Ja

R5

Ja

Ja

Nein

Ja

R5a

Ja

Ja

Nein

Ja

R5ad

Nein

Ja

NVME *

Ja

R5d

Nein

Ja

NVME *

Ja

u-6tb1.metal

Ja

Ja

Nein

Nein

u-9tb1.metal

Ja

Ja

Nein

Nein

u-12tb1.metal

Ja

Ja

Nein

Nein

X1

Nein

Nein

SSD

Ja

X1e

Nein

Nein

SSD *

Ja

z1d

Nein

Ja

NVME *

Ja

* Der Root-Gerät-Datenträger muss ein Amazon EBS-Volume sein.

Weitere Informationen finden Sie unter:

Unterstützung für vCPUs

Speicheroptimierte Instances bieten eine hohe Anzahl von vCPUs, was Startprobleme bei Betriebssystemen zur Folge haben kann, die für ein niedrigeres vCPU-Limit ausgelegt sind. Es wird ausdrücklich empfohlen, beim Starten von speicheroptimierten Instances die neuesten AMIs zu verwenden.

Die folgenden AMIs unterstützen den Start von speicheroptimierten Instances:

  • Amazon Linux 2 (HVM)

  • Amazon Linux AMI 2016.03 (HVM) oder höher

  • Ubuntu Server 14.04 LTS (HVM)

  • Red Hat Enterprise Linux 7.1 (HVM)

  • SUSE Linux Enterprise Server 12 SP1 (HVM)

  • Windows Server 2019

  • Windows Server 2016

  • Windows Server 2012 R2

  • Windows Server 2012

  • Windows Server 2008 R2 64 Bit

  • Windows Server 2008 SP2 64 Bit

Versionshinweise

  • R5- und R5d-Instances nutzt einen 3,1 GHz Intel Xeon Platinum 8000 Prozessor.

  • R5a- und R5ad-Instances nutzen einen 2,5-GHz-AMD-Prozessor der Serie EPYC 7000.

  • Die folgenden Anforderungen gelten für Instances mit hohem Speicher, R5-, R5a-, R5ad-, R5d- und z1d-Instances:

    • NVMe-Treiber müssen installiert sein. EBS-Volumes werden als NVMe-Blockgeräte angezeigt.

    • Elastic Network Adapter (ENA)-Treiber müssen installiert sein.

    Die folgenden AMIs erfüllen diese Anforderungen:

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03

    • Ubuntu 14.04 oder höher

    • Red Hat Enterprise Linux 7.4 oder höher

    • SUSE Linux Enterprise Server 12 SP2 oder höher

    • CentOS 7 oder höher

    • FreeBSD 11.1 oder höher

  • R5-, R5a-, R5ad-, R5d- und z1d-Instances unterstützen maximal 28 Anhänge, einschließlich Netzwerkschnittstellen, EBS-Volumes und NVMe-Instance-Speicher-Volumes. Jede Instance hat mindestens einen Netzwerkschnittstellen-Anhang. Wenn Sie beispielsweise keine zusätzlichen Netzwerkschnittstellen an eine reine EBS-Instance anhängen, können Sie bis zu 27 EBS-Volumes an diese Instance anhängen.

  • Wenn eine Bare-Metal-Instance gestartet wird, wird der zugrunde liegende Server gestartet, wobei alle Hardware- und Firmwarekomponenten überprüft werden. Dies bedeutet, dass es ab dem Zeitpunkt, an dem die Instance in den Betriebszustand übergeht, 20 Minuten dauern kann, bis sie über das Netzwerk verfügbar wird.

  • Zum Anfügen und Trennen von EBS-Volumes oder sekundären Netzwerkschnittstellen von einer Bare-Metal-Instance wird nativer PCIe-Hotplug-Support benötigt. Amazon Linux 2 und die neuesten Versionen von Amazon Linux AMI unterstützen im Gegensatz zu älteren Versionen native PCIe-Hotplugs. Sie müssen die folgenden Konfigurationsoptionen des Linux-Kernels aktivieren:

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Bare-Metal-Instances nutzen anstelle eines auf dem E/A-Port basierenden seriellen Geräts ein PCI-basiertes serielles Gerät. Der Linux-Upstream-Kernel und die neuesten Amazon Linux AMIs unterstützen dieses Gerät. Bare-Metal-Instances ermöglichen dem System über eine ACPI SPCR-Tabelle zudem, das PCI-basierte serielle Gerät automatisch zu nutzen. Die neuesten Windows-AMIs nutzen automatisch das PCI-basierte serielle Gerät.

  • Sie können X1-Instances nicht mit einer Windows Server 2008 SP2 64-Bit-AMI starten, ausgenommen x1.16xlarge-Instances.

  • Sie können X1e-Instances nicht mit einer Windows Server 2008 SP2 64-Bit-AMI starten.

  • Mit älteren Versionen des Windows Server 2008 R2 64-Bit-AMI können Sie keine r4.large- und r4.4xlarge-Instances starten. Wenn dieses Problem auftritt, aktualisieren Sie auf die neueste Version dieses AMI.

  • Die Gesamtanzahl der Instances, die Sie in einer Region starten können, ist begrenzt. Für bestimmte Instance-Typen gelten zusätzliche Einschränkungen. Weitere Informationen finden Sie unter Wie viele Instances kann ich in Amazon EC2 ausführen? Um eine Erweiterung des Limits zu beantragen, verwenden Sie das Amazon EC2-Instance-Beantragungsformular.