RAM-optimierte Instances
Speicheroptimierte Instances sind darauf ausgelegt, eine schnelle Leistung bei Arbeitslasten zu erreichen, die große Datensätze im Arbeitsspeicher verarbeiten.
R5-, R5a-, R5b- und R5n-Instances
Diese Instances eignen sich ideal für:
-
Relationale (MySQL-) und NoSQL- (MongoDB-, Cassandra)-Hochleistungsdatenbanken.
-
Verteilte webweite Cache-Speicher, die In-Memory-Caching von Schlüsselwertdaten bereitstellen (Memcached und Redis).
-
In-Memory-Datenbanken, die optimierte Datenspeicherformate und Analysen für Business Intelligence nutzen (z. B. SAP HANA).
-
Anwendungen, die große unstrukturierte Datenmengen in Echtzeit verarbeiten (Finanzdienstleister, Hadoop/Spark-Cluster).
-
High Performance Computing(HPC)- und Electronic Design Automation(EDA)-Anwendungen.
Bare-Metal-Instances, z. B. r5.metal
, ermöglichen Ihren Anwendungen direkten Zugriff auf die physischen Ressourcen des
Hostservers, wie z. B. Prozessoren und Speicher.
Weitere Informationen finden Sie unter Amazon EC2 R5-Instances
R6g- und R6gd-Instances
Diese Instances werden von AWS Graviton2-Prozessoren betrieben und eignen sich ideal für die Ausführung speicherintensiver Workloads, z. B. die folgenden:
-
Open-Source-Datenbanken (z. B. MySQL, MariaDB und PostgreSQL)
-
In-Memory-Caches (z. B. Memcached, Redis und KeyDB)
Bare-Metal-Instances, z. B. r6g.metal
, ermöglichen Ihren Anwendungen direkten Zugriff auf die physischen Ressourcen des
Hostservers, wie z. B. Prozessoren und Speicher.
Weitere Informationen finden Sie unter Amazon EC2-R6g-Instances
Instances mit hoher Speicherkapazität
High-Memory-Instances (u-6tb1.metal
, u-9tb1.metal
, u-12tb1.metal
, u-18tb1.metal
und u-24tb1.metal
) bieten 6 TiB, 9 TiB, 12 TiB, 18 TiB und 24 TiB Speicher pro Instance. Diese Instances
sind so konzipiert, dass große In-Memory-Datenbanken, einschließlich Produktionsbereitstellungen
der SAP HANA-In-Memory-Datenbank in der Cloud, ausgeführt werden. Sie bieten eine
Bare-Metal-Leistung mit direktem Zugriff auf die Host-Hardware.
Weitere Informationen finden Sie unter Amazon EC2 High Memory-Instances
X1-Instances
Diese Instances eignen sich ideal für:
-
In-Memory-Datenbanken wie SAP HANA einschließlich SAP-zertifiziertem Support für Business Suite S/4HANA, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) und Data Mart Solutions on HANA. Weitere Informationen finden Sie unter SAP HANA in der AWS Cloud
. -
Big-Data-Verarbeitungssysteme wie Apache Spark oder Presto.
-
High Performance Computing(HPC)-Anwendungen
Weitere Informationen finden Sie unter Amazon EC2 X1 Instances
X1e-Instances
Diese Instances eignen sich ideal für:
-
Hochleistungsdatenbanken.
-
In-Memory-Datenbanken wie SAP HANA. Weitere Informationen finden Sie unter SAP HANA in der AWS Cloud
. -
Speicherintensive Unternehmensanwendungen.
Weitere Informationen finden Sie unter Amazon EC2 X1e-Instances
z1d-Instances
Diese Instances bieten hohe Rechenleistung und viel Arbeitsspeicher und sind für Folgendes optimal geeignet:
-
Electronic Design Automation (EDA)
-
Workloads relationaler Datenbanken
z1d.metal
-Instances ermöglichen Ihren Anwendungen direkten Zugriff auf physische Ressourcen
des Hostservers, wie z. B. Prozessoren und Speicher.
Weitere Informationen finden Sie unter Amazon EC2 z1d-Instances
Inhalt
Hardwarespezifikationen
Im Folgenden finden Sie eine Zusammenfassung der Hardware-Spezifikationen für speicheroptimierte Instances.
Instance-Typ | Standard vCPUs | Arbeitsspeicher (GiB) |
---|---|---|
r4.large |
2 | 15,25 |
r4.xlarge |
4 | 30,5 |
r4.2xlarge |
8 | 61 |
r4.4xlarge |
16 | 122 |
r4.8xlarge |
32 | 244 |
r4.16xlarge |
64 | 488 |
r5.large |
2 | 16 |
r5.xlarge |
4 | 32 |
r5.2xlarge |
8 | 64 |
r5.4xlarge |
16 | 128 |
r5.8xlarge |
32 | 256 |
r5.12xlarge |
48 | 384 |
r5.16xlarge |
64 | 512 |
r5.24xlarge |
96 | 768 |
r5.metal |
96 | 768 |
r5a.large |
2 | 16 |
r5a.xlarge |
4 | 32 |
r5a.2xlarge |
8 | 64 |
r5a.4xlarge |
16 | 128 |
r5a.8xlarge |
32 | 256 |
r5a.12xlarge |
48 | 384 |
r5a.16xlarge |
64 | 512 |
r5a.24xlarge |
96 | 768 |
r5ad.large |
2 | 16 |
r5ad.xlarge |
4 | 32 |
r5ad.2xlarge |
8 | 64 |
r5ad.4xlarge |
16 | 128 |
r5ad.8xlarge |
32 | 256 |
r5ad.12xlarge |
48 | 384 |
r5ad.16xlarge |
64 | 512 |
r5ad.24xlarge |
96 | 768 |
r5b.large |
2 | 16 |
r5b.xlarge |
4 | 32 |
r5b.2xlarge |
8 | 64 |
r5b.4xlarge |
16 | 128 |
r5b.8xlarge |
32 | 256 |
r5b.12xlarge |
48 | 384 |
r5b.16xlarge |
64 | 512 |
r5b.24xlarge |
96 | 768 |
r5b.metal |
96 | 768 |
r5d.large |
2 | 16 |
r5d.xlarge |
4 | 32 |
r5d.2xlarge |
8 | 64 |
r5d.4xlarge |
16 | 128 |
r5d.8xlarge |
32 | 256 |
r5d.12xlarge |
48 | 384 |
r5d.16xlarge |
64 | 512 |
r5d.24xlarge |
96 | 768 |
r5d.metal |
96 | 768 |
r5dn.large |
2 | 16 |
r5dn.xlarge |
4 | 32 |
r5dn.2xlarge |
8 | 64 |
r5dn.4xlarge |
16 | 128 |
r5dn.8xlarge |
32 | 256 |
r5dn.12xlarge |
48 | 384 |
r5dn.16xlarge |
64 | 512 |
r5dn.24xlarge |
96 | 768 |
r5dn.metal |
96 | 768 |
r5n.large |
2 | 16 |
r5n.xlarge |
4 | 32 |
r5n.2xlarge |
8 | 64 |
r5n.4xlarge |
16 | 128 |
r5n.8xlarge |
32 | 256 |
r5n.12xlarge |
48 | 384 |
r5n.16xlarge |
64 | 512 |
r5n.24xlarge |
96 | 768 |
r5n.metal |
96 | 768 |
r6g.medium |
1 | 8 |
r6g.large |
2 | 16 |
r6g.xlarge |
4 | 32 |
r6g.2xlarge |
8 | 64 |
r6g.4xlarge |
16 | 128 |
r6g.8xlarge |
32 | 256 |
r6g.12xlarge |
48 | 384 |
r6g.16xlarge |
64 | 512 |
r6gd.medium |
1 | 8 |
r6gd.large |
2 | 16 |
r6gd.xlarge |
4 | 32 |
r6gd.2xlarge |
8 | 64 |
r6gd.4xlarge |
16 | 128 |
r6gd.8xlarge |
32 | 256 |
r6gd.12xlarge |
48 | 384 |
r6gd.16xlarge |
64 | 512 |
u-6tb1.metal |
448 * | 6 144 |
u-9tb1.metal |
448 * | 9 216 |
u-12tb1.metal |
448 * | 12 288 |
u-18tb1.metal |
448 * | 18 432 |
u-24tb1.metal |
448 * | 24 576 |
x1.16xlarge |
64 | 976 |
x1.32xlarge |
128 | 1 952 |
x1e.xlarge |
4 | 122 |
x1e.2xlarge |
8 | 244 |
x1e.4xlarge |
16 | 488 |
x1e.8xlarge |
32 | 976 |
x1e.16xlarge |
64 | 1 952 |
x1e.32xlarge |
128 | 3 904 |
z1d.large |
2 | 16 |
z1d.xlarge |
4 | 32 |
z1d.2xlarge |
8 | 64 |
z1d.3xlarge |
12 | 96 |
z1d.6xlarge |
24 | 192 |
z1d.12xlarge |
48 | 384 |
z1d.metal |
48 | 384 |
* Jeder logische Prozessor ist ein Hyperthread mit 224 Kernen.
Weitere Informationen zu den Hardware-Spezifikationen für jeden Amazon EC2-Instance-Typ
finden Sie unter Amazon EC2-Instance-Typen
Weitere Informationen zur Angabe von CPU-Optionen finden Sie unter CPU-Optionen optimieren.
Arbeitsspeicherleistung
X1-Instances beinhalten skalierbareSpeicherpuffer von Intel und bieten 300 GiB/s nachhaltige Speicher-Lesebandbreite und 140 GiB/s nachhaltige Speicher-Schreibbandbreite.
Weitere Informationen darüber, wie viel RAM für speicheroptimierte Instances aktiviert werden kann, finden Sie unter Hardwarespezifikationen.
Speicheroptimierte Instances haben einen großen Arbeitsspeicher und erfordern 64-Bit HVM-AMIs, um diese Kapazität nutzen zu können. HVM-AMIs bieten im Vergleich zu Paravirtual (PV)-AMIs bei Speicheroptimierten Instance-Typen hervorragende Leistung. Weitere Informationen finden Sie unter Linux AMI-Virtualisierungstypen.
Instance-Leistung
Speicheroptimierte Instances ermöglichen durch die neueste Intel AES-NI-Funktion eine höhere kryptografische Leistung, unterstützen Intel Transactional Synchronization Extensions (TSX), um die Leistung bei transaktionaler In-Memory-Datenverarbeitung zu steigern, und sie unterstützen Advanced Vector Extensions 2(Intel AVX2)-Prozessoranweisungen, um die meisten Integer-Befehle auf 256 Bits zu erweitern.
Bei einigen speicheroptimierten Instances ist es möglich, den C- und P-Zustand von Prozessoren unter Linux zu steuern. C-Zustände steuern den Ruhezustand eines Kerns im inaktiven Zustand. P-Zustände steuern die gewünschte Leistung (CPU-Frequenz) eines Kerns. Weitere Informationen finden Sie unter Steuerung des Prozessorzustands für Ihre EC2-Instance.
Netzwerkleistung
Sie können erweiterte Netzwerke für unterstützte Instance-Typen aktivieren, um eine geringere Latenz, einen geringeren Netzwerkjitter und eine höhere PPS (Paket pro Sekunde)-Leistung zu erzielen. Die meisten Anwendungen brauchen kein gleichbleibend hohes Niveau an Netzwerkleistung, können aber vom Zugriff auf eine erhöhte Bandbreite profitieren, wenn sie Daten senden oder empfangen. Weitere Informationen finden Sie unter Enhanced Networking unter Linux.
Im Folgenden finden Sie eine Zusammenfassung der Netzwerkleistung für speicheroptimierte Instances, die Enhanced Networking unterstützen.
Instance-Typ | Netzwerkleistung | Enhanced Networking |
---|---|---|
r4.4xlarge und kleiner | r5.4xlarge und kleiner | r5a.8xlarge und kleiner | r5ad.8xlarge und kleiner | r5b.4xlarge und kleiner | r5d.4xlarge und kleiner | r6g.4xlarge und kleiner | r6gd.4xlarge und kleiner | x1e.8large und kleiner | z1d.3xlarge und kleiner
|
Bis zu 10 Gbit/s † | ENA |
r4.8xlarge | r5.8xlarge | r5.12xlarge | r5a.12xlarge | r5ad.12xlarge | r5b.8xlarge | r5b.12xlarge | r5d.8xlarge | r5d.12xlarge | x1.16xlarge | x1e.16xlarge | z1d.6xlarge
|
10 Gbit/s | ENA |
r5a.16xlarge | r5ad.16xlarge | r6g.8xlarge | r6gd.8xlarge
|
12 Gbit/s | ENA |
r5.16xlarge | r5a.24xlarge | r5ad.24xlarge | r5b.16xlarge | r5d.16xlarge | r6g.12xlarge | r6gd.12xlarge
|
20 Gbit/s | ENA |
r5dn.4xlarge und kleiner | r5n.4xlarge und kleiner
|
Bis zu 25 Gbit/s † | ENA |
r4.16xlarge | r5.24xlarge | r5.metal | r5b.24xlarge | r5b.metal | r5d.24xlarge | r5d.metal | r5dn.8xlarge | r5n.8xlarge | r6g.16xlarge | r6g.metal | r6gd.16xlarge | r6gd.metal | x1.32xlarge | x1e.32xlarge | z1d.12xlarge | z1d.metal
|
25 Gbit/s | ENA |
r5dn.12xlarge | r5n.12xlarge |
50 Gbit/s | ENA |
r5dn.16xlarge | r5n.16xlarge |
75 Gbit/s | ENA |
r5dn.24xlarge | r5dn.metal | r5n.24xlarge | r5n.metal | u-6tb1.metal * | u-9tb1.metal * | u-12tb1.metal * | u-18tb1.metal | u-24tb1.metal
|
100 Gbit/s | ENA |
* Instances dieses Typs, die nach dem 12. März 2020 gestartet wurden, bieten eine Netzwerkleistung von 100 Gbit/s. Instances dieses Typs, die vor dem 12. März 2020 gestartet wurden, bieten möglicherweise nur eine Netzwerkleistung von 25 Gbit/s. Um sicherzustellen, dass Instances, die vor dem 12. März 2020 gestartet wurden, eine Netzwerkleistung von 100 Gbit/s aufweisen, wenden Sie sich an Ihr Kontoteam, um Ihre Instance ohne zusätzliche Kosten zu aktualisieren.
† Diese Instances nutzen ein Netzwerk-E/A-Guthabensystem, mit dem Instances Netzwerkbandbreite basierend auf der durchschnittlichen Bandbreitennutzung zugewiesen wird. Sie sammeln Guthaben an, wenn ihre Bandbreite unter den Basisbandbreite liegt, und können diese Guthaben verwenden, wenn sie Netzwerk-Datenübertragungen durchführen. Um weitere Informationen zu erhalten, öffnen Sie einen Supportfall und bitten Sie um die Baseline-Bandbreite für die einzelnen Instance-Typen, an denen Sie interessiert sind.
E/A-Leistung von SSDs
Wenn Sie ein Linux-AMI mit der Kernel-Version 4.4 oder höher sowie alle in der Instance verfügbaren SSD-basierten Instance-Speicher-Volumes verwenden, können Sie (bei einer Blockgröße von 4 096 Byte) die in der folgende Tabelle aufgeführte IOPS-Leistung erreichen (bei Sättigung der Warteschlangentiefe). Andernfalls fällt die IOPS-Leistung niedriger aus.
Instance-Größe | 100 % wahlfreie Lese-IOPS | Schreib-IOPS |
---|---|---|
r5ad.large *
|
30 000 | 15 000 |
r5ad.xlarge *
|
59 000 | 29 000 |
r5ad.2xlarge *
|
117 000 | 57 000 |
r5ad.4xlarge *
|
234 000 | 114 000 |
r5ad.8xlarge |
466 666 | 233 333 |
r5ad.12xlarge |
700 000 | 340 000 |
r5ad.16xlarge |
933 333 | 466 666 |
r5ad.24xlarge |
1 400 000 | 680 000 |
r5d.large *
|
30 000 | 15 000 |
r5d.xlarge *
|
59 000 | 29 000 |
r5d.2xlarge *
|
117 000 | 57 000 |
r5d.4xlarge *
|
234 000 | 114 000 |
r5d.8xlarge |
466 666 | 233 333 |
r5d.12xlarge |
700 000 | 340 000 |
r5d.16xlarge
|
933 333 | 466 666 |
r5d.24xlarge |
1 400 000 | 680 000 |
r5d.metal |
1 400 000 | 680 000 |
r5dn.large *
|
30 000 | 15 000 |
r5dn.xlarge *
|
59 000 | 29 000 |
r5dn.2xlarge *
|
117 000 | 57 000 |
r5dn.4xlarge *
|
234 000 | 114 000 |
r5dn.8xlarge |
466 666 | 233 333 |
r5dn.12xlarge |
700 000 | 340 000 |
r5dn.16xlarge |
933 333 | 466 666 |
r5dn.24xlarge |
1 400 000 | 680 000 |
r5dn.metal |
1 400 000 | 680 000 |
r6gd.medium |
13.438 | 5.625 |
r6gd.large |
26.875 | 11.250 |
r6gd.xlarge |
53.750 | 22.500 |
r6gd.2xlarge |
107.500 | 45.000 |
r6gd.4xlarge |
215.000 | 90.000 |
r6gd.8xlarge |
430.000 | 180 000 |
r6gd.12xlarge |
645.000 | 270.000 |
r6gd.16xlarge |
860.000 | 360 000 |
r6gd.metal |
860.000 | 360 000 |
z1d.large *
|
30 000 | 15 000 |
z1d.xlarge *
|
59 000 | 29 000 |
z1d.2xlarge *
|
117 000 | 57 000 |
z1d.3xlarge *
|
175 000 | 75 000 |
z1d.6xlarge |
350 000 | 170 000 |
z1d.12xlarge |
700 000 | 340 000 |
z1d.metal |
700 000 | 340 000 |
* Bei diesen Instances können Sie eine Leistung bis zu den angegebenen Werten erreichen.
Die Anzahl der erreichten Schreib-IOPS nimmt in dem Maß ab, in dem Sie die SSD-basierten Instance-Speicher-Volumes für Ihre Instance mit Daten belegen. Der Grund dafür ist der zusätzliche Arbeitsaufwand für den SSD-Controller, der verfügbaren Speicherplatz suchen, vorhandene Daten neu schreiben und ungenutzten Speicherplatz löschen muss, sodass er neu beschrieben werden kann. Dieser Prozess der Speicherbereinigung führt zu einer internen Write Amplification in der SSD; diese wird im Verhältnis der SSD-Schreibvorgänge zu den Benutzer-Schreibvorgängen ausgedrückt. Dieser Leistungsabfall ist sogar noch größer, wenn die Schreibvorgänge nicht in Vielfachen von 4 096 Byte durchgeführt oder nicht auf eine 4 096 Byte-Grenze ausgerichtet werden. Wenn eine kleinere Anzahl von Bytes oder nicht ausgerichtete Bytes geschrieben werden, muss der SSD-Controller die Daten in der Umgebung auslesen und an einem neuen Ort speichern. Dieses Muster führt zu einer erheblich größeren Write Amplification, einer höheren Latenz und zu dramatischen E/A-Leistungseinbußen.
SSD-Controller können verschiedenen Strategien anwenden, um die Auswirkungen der Write Amplification zu verringern. Eine dieser Strategien besteht darin, Speicherplatz des SSD-Instance-Speichers zu reservieren, sodass der Controller den für Schreibvorgänge verfügbaren Speicherplatz effizienter verwalten kann. Diese Methode wird als Overprovisioning (übermäßige Bereitstellung) bezeichnet. Die SSD-basierten Instance-Speicher-Volumes haben keinen für das Overprovisioning reservierten Speicherplatz zur Verfügung. Zur Verringerung der Write Amplification empfehlen wir, 10 % eines Volumes nicht zu partitionieren, sodass der SSD-Controller diesen Speicherplatz für das Overprovisioning verwenden kann. Dadurch steht zwar weniger Speicherplatz zur Verfügung, aber die Leistung wird verbessert – auch wenn der Datenträger fast vollständig belegt ist.
Bei Instance-Speicher-Volumes, die TRIM unterstützen, können Sie den TRIM-Befehl dazu verwenden, dem SSD-Controller mitzuteilen, wann Sie Daten nicht mehr benötigen, die Sie geschrieben haben. Auf diese Weise hat der Controller mehr freien Speicherplatz zur Verfügung, wodurch die Write Amplification reduziert und die Leistung erhöht wird. Weitere Informationen finden Sie unter TRIM-Unterstützung für Instance-Speicher-Volumes.
Funktionen von Instances
Im Folgenden finden Sie eine Zusammenfassung von Funktionen für speicheroptimierte Instances.
Nur EBS | NVMe-EBS | Instance-Speicher | Platzierungsgruppe | |
---|---|---|---|---|
R4 |
Ja |
Nein |
Nein |
Ja |
R5 |
Ja |
Ja |
Nein |
Ja |
R5a |
Ja |
Ja |
Nein |
Ja |
R5ad |
Nein |
Ja |
NVME * |
Ja |
R5b |
Ja |
Ja |
Nein |
Ja |
R5d |
Nein |
Ja |
NVME * |
Ja |
R5dn |
Nein |
Ja |
NVME * |
Ja |
R5n |
Ja |
Ja |
Nein |
Ja |
R6g |
Ja |
Ja |
Nein |
Ja |
R6gd |
Nein |
Ja |
NVMe * |
Ja |
u-6tb1.metal |
Ja |
Ja |
Nein |
Nein |
u-9tb1.metal |
Ja |
Ja |
Nein |
Nein |
u-12tb1.metal |
Ja |
Ja |
Nein |
Nein |
u-18tb1.metal |
Ja |
Ja |
Nein |
Nein |
u-24tb1.metal |
Ja |
Ja |
Nein |
Nein |
X1 |
Nein |
Nein |
SSD |
Ja |
X1e |
Nein |
Nein |
SSD * |
Ja |
z1d |
Nein |
Ja |
NVME * |
Ja |
* Der Root-Gerät-Datenträger muss ein Amazon EBS-Volume sein.
Weitere Informationen finden Sie unter:
Unterstützung für vCPUs
Speicheroptimierte Instances bieten eine hohe Anzahl von vCPUs, was Startprobleme bei Betriebssystemen zur Folge haben kann, die für ein niedrigeres vCPU-Limit ausgelegt sind. Es wird ausdrücklich empfohlen, beim Starten von speicheroptimierten Instances die neuesten AMIs zu verwenden.
Die folgenden AMIs unterstützen den Start von speicheroptimierten Instances:
-
Amazon Linux 2 (HVM)
-
Amazon Linux AMI 2016.03 (HVM) oder höher
-
Ubuntu Server 14.04 LTS (HVM)
-
Red Hat Enterprise Linux 7.1 (HVM)
-
SUSE Linux Enterprise Server 12 SP1 (HVM)
-
Windows Server 2019
-
Windows Server 2016
-
Windows Server 2012 R2
-
Windows Server 2012
-
Windows Server 2008 R2 64 Bit
-
Windows Server 2008 SP2 64 Bit
Versionshinweise
-
R4-Instances verfügen über bis zu 64 vCPUs und sind mit zwei für AWS angepassten auf E5-2686v4 basierenden Intel XEON-Prozessoren ausgestattet, die eine hohe Speicherbandbreite und größere L3-Caches bieten, um die Leistung von In-Memory-Anwendungen zu steigern.
-
R5-, R5b- und R5d-Instances verfügen über einen Intel Xeon Platinum 8000-Prozessor entweder der ersten (SkyLake-SP) oder der zweiten Generation (Cascade Lake) mit 3,1 GHz.
-
R5a- und R5ad-Instances nutzen einen 2,5-GHz-AMD-Prozessor der Serie EPYC 7000.
-
R6g- und R6gd-Instances nutzen einen AWS Graviton2-Prozessor auf der Basis der 64-Bit ARM-Architektur.
-
High-Memory-Instances (
u-6tb1.metal
,u-9tb1.metal
undu-12tb1.metal
) sind die ersten Instances auf Basis einer Plattform mit acht Sockets für Intel Xeon Platinum 8176M (Skylake)-Prozessoren der neuesten Generation, optimiert für unternehmenskritische Workloads. Bei High-Memory-Instances mit 18 TB und 24 TB (u-18tb1.metal
undu-24tb1.metal
) handelt es sich um die ersten Instances auf Basis einer Plattform mit acht Sockets für Intel® Xeon® Scalable 8280L (Cascade Lake)-Prozessoren der 2. Generation. -
X1e- und X1-Instances verfügen über bis zu 128 vCPUs und sind mit vier Intel Xeon E7-8880 v3-Prozessoren ausgestattet, die eine hohe Speicherbandbreite und größere L3-Caches bieten, um die Leistung von In-Memory-Anwendungen zu steigern.
-
Für Instances, die auf dem Nitro-System basieren, gelten die folgenden Anforderungen:
-
NVMe-Treiber müssen installiert sein.
-
Elastic Network Adapter (ENA)-Treiber müssen installiert sein.
Die folgenden Linux-AMIs erfüllen diese Anforderungen:
-
Amazon Linux 2
-
Amazon Linux AMI 2018.03
-
Ubuntu 14.04 (mit
linux-aws
-Kernel) oder höher -
Red Hat Enterprise Linux 7.4 oder höher
-
SUSE Linux Enterprise Server 12 SP2 oder höher
-
CentOS 7.4.1708 oder höher
-
FreeBSD 11.1 oder höher
-
Debian GNU/Linux 9 oder höher
-
-
Für Instances mit AWS Graviton-Prozessoren gelten die folgenden Anforderungen:
-
Sie müssen eine AMI für die 64-Bit-ARM-Architektur verwenden.
-
Sie müssen das Booten im UEFI-Modus mit ACPI-Tabellen sowie das ACPI Hot-Plug für PCI-Geräte unterstützen.
Die folgenden AMIs erfüllen diese Anforderungen:
-
Amazon Linux 2 (64-Bit ARM)
-
Ubuntu 16.04 oder höher (64-Bit ARM)
-
Red Hat Enterprise Linux 8.0 oder höher (64-Bit ARM)
-
SUSE Linux Enterprise Server 15 oder höher (64-Bit ARM)
-
Debian 10 oder höher (64-Bit-Arm)
-
-
Instances, die auf den Nitro System-Instances basieren, unterstützen maximal 28 Anhänge, einschließlich Netzwerkschnittstellen, EBS-Volumes und NVMe-Instance-Speicher-Volumes. Weitere Informationen finden Sie unter Nitro-System-Volumenbegrenzungen.
-
R5b-Instances unterstützen keine
io2
-Volumes oder Volumes mit aktiviertem Multi-Attach. -
Wenn eine Bare-Metal-Instance gestartet wird, wird der zugrunde liegende Server gestartet, wobei alle Hardware- und Firmwarekomponenten überprüft werden. Dies bedeutet, dass es ab dem Zeitpunkt, an dem die Instance in den Betriebszustand übergeht, 20 Minuten dauern kann, bis sie über das Netzwerk verfügbar wird.
-
Zum Anfügen und Trennen von EBS-Volumes oder sekundären Netzwerkschnittstellen von einer Bare-Metal-Instance wird nativer PCIe-Hotplug-Support benötigt. Amazon Linux 2 und die neuesten Versionen von Amazon Linux AMI unterstützen im Gegensatz zu älteren Versionen native PCIe-Hotplugs. Sie müssen die folgenden Konfigurationsoptionen des Linux-Kernels aktivieren:
CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
-
Bare-Metal-Instances nutzen anstelle eines auf dem E/A-Port basierenden seriellen Geräts ein PCI-basiertes serielles Gerät. Der Linux-Upstream-Kernel und die neuesten Amazon Linux AMIs unterstützen dieses Gerät. Bare-Metal-Instances ermöglichen dem System über eine ACPI SPCR-Tabelle zudem, das PCI-basierte serielle Gerät automatisch zu nutzen. Die neuesten Windows-AMIs nutzen automatisch das PCI-basierte serielle Gerät.
-
Sie können X1-Instances nicht mit einer Windows Server 2008 SP2 64-Bit-AMI starten, ausgenommen
x1.16xlarge
-Instances. -
Sie können X1e-Instances nicht mit einer Windows Server 2008 SP2 64-Bit-AMI starten.
-
Mit älteren Versionen des Windows Server 2008 R2 64-Bit-AMI können Sie keine
r4.large
- undr4.4xlarge
-Instances starten. Wenn dieses Problem auftritt, aktualisieren Sie auf die neueste Version dieses AMI. -
Die Gesamtanzahl der Instances, die Sie in einer Region starten können, ist begrenzt. Für bestimmte Instance-Typen gelten zusätzliche Einschränkungen. Weitere Informationen finden Sie unter Wie viele Instances kann ich in Amazon EC2 ausführen?
in Amazon EC2 – Häufig gestellte Fragen.