RAM-optimierte Instances - Amazon Elastic Compute Cloud

RAM-optimierte Instances

Speicheroptimierte Instances sind darauf ausgelegt, eine schnelle Leistung bei Arbeitslasten zu erreichen, die große Datensätze im Arbeitsspeicher verarbeiten.

R5-, R5a-, und R5n-Instances

Diese Instances eignen sich ideal für:

  • Relationale (MySQL-) und NoSQL- (MongoDB-, Cassandra)-Hochleistungsdatenbanken.

  • Verteilte webweite Cache-Speicher, die In-Memory-Caching von Schlüsselwertdaten bereitstellen (Memcached und Redis).

  • In-Memory-Datenbanken, die optimierte Datenspeicherformate und Analysen für Business Intelligence nutzen (z. B. SAP HANA).

  • Anwendungen, die große unstrukturierte Datenmengen in Echtzeit verarbeiten (Finanzdienstleister, Hadoop/Spark-Cluster).

  • High Performance Computing(HPC)- und Electronic Design Automation(EDA)-Anwendungen.

Bare-Metal-Instances, z. B. r5.metal, ermöglichen Ihren Anwendungen direkten Zugriff auf die physischen Ressourcen des Hostservers, wie z. B. Prozessoren und Speicher. Diese Instances eignen sich ideal für:

  • Workloads, die Zugang zu Low-Level-Hardware-Funktionen (wie Intel VT-x) benötigen, die in virtualisierten Umgebungen nicht verfügbar sind oder nicht vollständig unterstützt werden

  • Anwendungen, die aufgrund von Lizenz- oder Support-Anforderungen in nicht virtualisierten Umgebungen ausgeführt werden müssen

Weitere Informationen finden Sie unter Amazon EC2 R5-Instances.

R6g- und R6gd-Instances

Diese Instances werden von AWS Graviton2-Prozessoren betrieben und eignen sich ideal für die Ausführung speicherintensiver Workloads, z. B. die folgenden:

  • Open-Source-Datenbanken (z. B. MySQL, MariaDB und PostgreSQL)

  • In-Memory-Caches (z. B. Memcached, Redis und KeyDB)

Bare-Metal-Instances, z. B. r6g.metal, ermöglichen Ihren Anwendungen direkten Zugriff auf die physischen Ressourcen des Hostservers, wie z. B. Prozessoren und Speicher.

Weitere Informationen finden Sie unter Amazon EC2-R6g-Instances.

Instances mit hoher Speicherkapazität

High-Memory-Instances (u-6tb1.metal, u-9tb1.metal, u-12tb1.metal, u-18tb1.metal und u-24tb1.metal) bieten 6 TiB, 9 TiB, 12 TiB, 18 TiB und 24 TiB Speicher pro Instance. Diese Instances sind so konzipiert, dass große In-Memory-Datenbanken, einschließlich Produktionsbereitstellungen der SAP HANA-In-Memory-Datenbank in der Cloud, ausgeführt werden. Sie bieten eine Bare-Metal-Leistung mit direktem Zugriff auf die Host-Hardware.

Weitere Informationen finden Sie unter Amazon EC2 High Memory-Instances und Speicherkonfiguration für SAP HANA.

X1-Instances

Diese Instances eignen sich ideal für:

  • In-Memory-Datenbanken wie SAP HANA einschließlich SAP-zertifiziertem Support für Business Suite S/4HANA, Business Suite on HANA (SoH), Business Warehouse on HANA (BW) und Data Mart Solutions on HANA. Weitere Informationen finden Sie unter SAP HANA in der AWS Cloud.

  • Big-Data-Verarbeitungssysteme wie Apache Spark oder Presto.

  • High Performance Computing(HPC)-Anwendungen

Weitere Informationen finden Sie unter Amazon EC2 X1 Instances.

X1e-Instances

Diese Instances eignen sich ideal für:

  • Hochleistungsdatenbanken.

  • In-Memory-Datenbanken wie SAP HANA. Weitere Informationen finden Sie unter SAP HANA in der AWS Cloud.

  • Speicherintensive Unternehmensanwendungen.

Weitere Informationen finden Sie unter Amazon EC2 X1e-Instances.

z1d-Instances

Diese Instances bieten hohe Rechenleistung und viel Arbeitsspeicher und sind für Folgendes optimal geeignet:

  • Electronic Design Automation (EDA)

  • Workloads relationaler Datenbanken

z1d.metal-Instances ermöglichen Ihren Anwendungen direkten Zugriff auf physische Ressourcen des Hostservers, wie z. B. Prozessoren und Speicher. Diese Instances eignen sich ideal für:

  • Workloads, die Zugang zu Low-Level-Hardware-Funktionen (wie Intel VT-x) benötigen, die in virtualisierten Umgebungen nicht verfügbar sind oder nicht vollständig unterstützt werden

  • Anwendungen, die aufgrund von Lizenz- oder Support-Anforderungen in nicht virtualisierten Umgebungen ausgeführt werden müssen

Weitere Informationen finden Sie unter Amazon EC2 z1d-Instances.

Hardwarespezifikationen

Im Folgenden finden Sie eine Zusammenfassung der Hardware-Spezifikationen für speicheroptimierte Instances.

Instance-Typ Standard vCPUs Arbeitsspeicher (GiB)
r4.large 2 15,25
r4.xlarge 4 30,5
r4.2xlarge 8 61
r4.4xlarge 16 122
r4.8xlarge 32 244
r4.16xlarge 64 488
r5.large 2 16
r5.xlarge 4 32
r5.2xlarge 8 64
r5.4xlarge 16 128
r5.8xlarge 32 256
r5.12xlarge 48 384
r5.16xlarge 64 512
r5.24xlarge 96 768
r5.metal 96 768
r5a.large 2 16
r5a.xlarge 4 32
r5a.2xlarge 8 64
r5a.4xlarge 16 128
r5a.8xlarge 32 256
r5a.12xlarge 48 384
r5a.16xlarge 64 512
r5a.24xlarge 96 768
r5ad.large 2 16
r5ad.xlarge 4 32
r5ad.2xlarge 8 64
r5ad.4xlarge 16 128
r5ad.8xlarge 32 256
r5ad.12xlarge 48 384
r5ad.16xlarge 64 512
r5ad.24xlarge 96 768
r5d.large 2 16
r5d.xlarge 4 32
r5d.2xlarge 8 64
r5d.4xlarge 16 128
r5d.8xlarge 32 256
r5d.12xlarge 48 384
r5d.16xlarge 64 512
r5d.24xlarge 96 768
r5d.metal 96 768
r5dn.large 2 16
r5dn.xlarge 4 32
r5dn.2xlarge 8 64
r5dn.4xlarge 16 128
r5dn.8xlarge 32 256
r5dn.12xlarge 48 384
r5dn.16xlarge 64 512
r5dn.24xlarge 96 768
r5n.large 2 16
r5n.xlarge 4 32
r5n.2xlarge 8 64
r5n.4xlarge 16 128
r5n.8xlarge 32 256
r5n.12xlarge 48 384
r5n.16xlarge 64 512
r5n.24xlarge 96 768
r6g.medium 1 8
r6g.large 2 16
r6g.xlarge 4 32
r6g.2xlarge 8 64
r6g.4xlarge 16 128
r6g.8xlarge 32 256
r6g.12xlarge 48 384
r6g.16xlarge 64 512
r6gd.medium 1 8
r6gd.large 2 16
r6gd.xlarge 4 32
r6gd.2xlarge 8 64
r6gd.4xlarge 16 128
r6gd.8xlarge 32 256
r6gd.12xlarge 48 384
r6gd.16xlarge 64 512
u-6tb1.metal 448 * 6 144
u-9tb1.metal 448 * 9 216
u-12tb1.metal 448 * 12 288
u-18tb1.metal 448 * 18 432
u-24tb1.metal 448 * 24 576
x1.16xlarge 64 976
x1.32xlarge 128 1 952
x1e.xlarge 4 122
x1e.2xlarge 8 244
x1e.4xlarge 16 488
x1e.8xlarge 32 976
x1e.16xlarge 64 1 952
x1e.32xlarge 128 3 904
z1d.large 2 16
z1d.xlarge 4 32
z1d.2xlarge 8 64
z1d.3xlarge 12 96
z1d.6xlarge 24 192
z1d.12xlarge 48 384
z1d.metal 48 384

* Jeder logische Prozessor ist ein Hyperthread mit 224 Kernen.

Weitere Informationen zu den Hardware-Spezifikationen für jeden Amazon EC2-Instance-Typ finden Sie unter Amazon EC2-Instance-Typen.

Weitere Informationen zur Angabe von CPU-Optionen finden Sie unter Optimierung der CPU-Optionen.

Arbeitsspeicherleistung

X1-Instances beinhalten skalierbareSpeicherpuffer von Intel und bieten 300 GiB/s nachhaltige Speicher-Lesebandbreite und 140 GiB/s nachhaltige Speicher-Schreibbandbreite.

Weitere Informationen darüber, wie viel RAM für speicheroptimierte Instances aktiviert werden kann, finden Sie unter Hardwarespezifikationen.

Speicheroptimierte Instances haben einen großen Arbeitsspeicher und erfordern 64-Bit HVM-AMIs, um diese Kapazität nutzen zu können. HVM-AMIs bieten im Vergleich zu Paravirtual (PV)-AMIs bei Speicheroptimierten Instance-Typen hervorragende Leistung. Weitere Informationen finden Sie unter Linux AMI-Virtualisierungstypen.

Instance-Leistung

Speicheroptimierte Instances ermöglichen durch die neueste Intel AES-NI-Funktion eine höhere kryptografische Leistung, unterstützen Intel Transactional Synchronization Extensions (TSX), um die Leistung bei transaktionaler In-Memory-Datenverarbeitung zu steigern, und sie unterstützen Advanced Vector Extensions 2(Intel AVX2)-Prozessoranweisungen, um die meisten Integer-Befehle auf 256 Bits zu erweitern.

Bei einigen speicheroptimierten Instances ist es möglich, den C- und P-Zustand von Prozessoren unter Linux zu steuern. C-Zustände steuern den Ruhezustand eines Kerns im inaktiven Zustand. P-Zustände steuern die gewünschte Leistung (CPU-Frequenz) eines Kerns. Weitere Informationen finden Sie unter Steuerung des Prozessorzustands für Ihre EC2-Instance.

Netzwerkleistung

Sie können erweiterte Netzwerke für unterstützte Instance-Typen aktivieren, um eine geringere Latenz, einen geringeren Netzwerkjitter und eine höhere PPS (Paket pro Sekunde)-Leistung zu erzielen. Die meisten Anwendungen brauchen kein gleichbleibend hohes Niveau an Netzwerkleistung, können aber vom Zugriff auf eine erhöhte Bandbreite profitieren, wenn sie Daten senden oder empfangen. Weitere Informationen finden Sie unter Enhanced Networking unter Linux.

Im Folgenden finden Sie eine Zusammenfassung der Netzwerkleistung für speicheroptimierte Instances, die Enhanced Networking unterstützen.

Instance-Typ Netzwerkleistung Enhanced Networking
r4.4xlarge und kleiner | r5.4xlarge und kleiner | r5a.8xlarge und kleiner | r5ad.8xlarge und kleiner | r5d.4xlarge und kleiner | r6g.4xlarge und kleiner | r6gd.4xlarge und kleiner | x1e.8large und kleiner | z1d.3xlarge und kleiner Bis zu 10 Gbit/s † ENA
r4.8xlarge | r5.8xlarge | r5.12xlarge | r5a.12xlarge | r5ad.12xlarge | r5d.8xlarge | r5d.12xlarge | x1.16xlarge | x1e.16xlarge | z1d.6xlarge 10 Gbit/s ENA
r5a.16xlarge | r5ad.16xlarge | r6g.8xlarge | r6gd.8xlarge 12 Gbit/s ENA
r5.16xlarge | r5a.24xlarge | r5ad.24xlarge | r5d.16xlarge | r6g.12xlarge | r6gd.12xlarge 20 Gbit/s ENA
r5dn.4xlarge und kleiner | r5n.4xlarge und kleiner Bis zu 25 Gbit/s † ENA
r4.16xlarge | r5.24xlarge | r5.metal | r5d.24xlarge | r5d.metal | r5dn.8xlarge | r5n.8xlarge | r6g.16xlarge | r6g.metal | r6gd.16xlarge | r6gd.metal | x1.32xlarge | x1e.32xlarge | z1d.12xlarge | z1d.metal 25 Gbit/s ENA
r5dn.12xlarge | r5n.12xlarge 50 Gbit/s ENA
r5dn.16xlarge | r5n.16xlarge 75 Gbit/s ENA
r5dn.24xlarge | r5n.24xlarge | u-6tb1.metal * | u-9tb1.metal * | u-12tb1.metal * | u-18tb1.metal | u-24tb1.metal 100 Gbit/s ENA

* Instances dieses Typs, die nach dem 12. März 2020 gestartet wurden, bieten eine Netzwerkleistung von 100 Gbit/s. Instances dieses Typs, die vor dem 12. März 2020 gestartet wurden, bieten möglicherweise nur eine Netzwerkleistung von 25 Gbit/s. Um sicherzustellen, dass Instances, die vor dem 12. März 2020 gestartet wurden, eine Netzwerkleistung von 100 Gbit/s aufweisen, wenden Sie sich an Ihr Kontoteam, um Ihre Instance ohne zusätzliche Kosten zu aktualisieren.

† Diese Instances nutzen ein Netzwerk-E/A-Guthabensystem, mit dem Instances Netzwerkbandbreite basierend auf der durchschnittlichen Bandbreitennutzung zugewiesen wird. Sie sammeln Guthaben an, wenn ihre Bandbreite unter den Basisbandbreite liegt, und können diese Guthaben verwenden, wenn sie Netzwerk-Datenübertragungen durchführen. Um weitere Informationen zu erhalten, öffnen Sie einen Supportfall und bitten Sie um die Baseline-Bandbreite für die einzelnen Instance-Typen, an denen Sie interessiert sind.

E/A-Leistung von SSDs

Wenn Sie ein Linux-AMI mit der Kernel-Version 4.4 oder höher sowie alle in der Instance verfügbaren SSD-basierten Instance-Speicher-Volumes verwenden, können Sie (bei einer Blockgröße von 4 096 Byte) die in der folgende Tabelle aufgeführte IOPS-Leistung erreichen (bei Sättigung der Warteschlangentiefe). Andernfalls fällt die IOPS-Leistung niedriger aus.

Instance-Größe 100 % wahlfreie Lese-IOPS Schreib-IOPS
r5ad.large * 30 000 15 000
r5ad.xlarge * 59 000 29 000
r5ad.2xlarge * 117 000 57 000
r5ad.4xlarge * 234 000 114 000
r5ad.8xlarge 466 666 233 333
r5ad.12xlarge 700 000 340 000
r5ad.16xlarge 933 333 466 666
r5ad.24xlarge 1 400 000 680 000
r5d.large * 30 000 15 000
r5d.xlarge * 59 000 29 000
r5d.2xlarge * 117 000 57 000
r5d.4xlarge * 234 000 114 000
r5d.8xlarge 466 666 233 333
r5d.12xlarge 700 000 340 000
r5d.16xlarge 933 333 466 666
r5d.24xlarge 1 400 000 680 000
r5d.metal 1 400 000 680 000
r5dn.large * 30 000 15 000
r5dn.xlarge * 59 000 29 000
r5dn.2xlarge * 117 000 57 000
r5dn.4xlarge * 234 000 114 000
r5dn.8xlarge 466 666 233 333
r5dn.12xlarge 700 000 340 000
r5dn.16xlarge 933 333 466 666
r5dn.24xlarge 1 400 000 680 000
r6gd.medium 13.438 5.625
r6gd.large 26.875 11.250
r6gd.xlarge 53.750 22.500
r6gd.2xlarge 107.500 45.000
r6gd.4xlarge 215-000 90.000
r6gd.8xlarge 430.000 180 000
r6gd.12xlarge 645.000 270.000
r6gd.16xlarge 860.000 360 000
r6gd.metal 860.000 360 000
z1d.large * 30 000 15 000
z1d.xlarge * 59 000 29 000
z1d.2xlarge * 117 000 57 000
z1d.3xlarge * 175 000 75 000
z1d.6xlarge 350 000 170 000
z1d.12xlarge 700 000 340 000
z1d.metal 700 000 340 000

* Bei diesen Instances können Sie eine Leistung bis zu den angegebenen Werten erreichen.

Die Anzahl der erreichten Schreib-IOPS nimmt in dem Maß ab, in dem Sie die SSD-basierten Instance-Speicher-Volumes für Ihre Instance mit Daten belegen. Der Grund dafür ist der zusätzliche Arbeitsaufwand für den SSD-Controller, der verfügbaren Speicherplatz suchen, vorhandene Daten neu schreiben und ungenutzten Speicherplatz löschen muss, sodass er neu beschrieben werden kann. Dieser Prozess der Speicherbereinigung führt zu einer internen Write Amplification in der SSD; diese wird im Verhältnis der SSD-Schreibvorgänge zu den Benutzer-Schreibvorgängen ausgedrückt. Dieser Leistungsabfall ist sogar noch größer, wenn die Schreibvorgänge nicht in Vielfachen von 4 096 Byte durchgeführt oder nicht auf eine 4 096 Byte-Grenze ausgerichtet werden. Wenn eine kleinere Anzahl von Bytes oder nicht ausgerichtete Bytes geschrieben werden, muss der SSD-Controller die Daten in der Umgebung auslesen und an einem neuen Ort speichern. Dieses Muster führt zu einer erheblich größeren Write Amplification, einer höheren Latenz und zu dramatischen E/A-Leistungseinbußen.

SSD-Controller können verschiedenen Strategien anwenden, um die Auswirkungen der Write Amplification zu verringern. Eine dieser Strategien besteht darin, Speicherplatz des SSD-Instance-Speichers zu reservieren, sodass der Controller den für Schreibvorgänge verfügbaren Speicherplatz effizienter verwalten kann. Diese Methode wird als Overprovisioning (übermäßige Bereitstellung) bezeichnet. Die SSD-basierten Instance-Speicher-Volumes haben keinen für das Overprovisioning reservierten Speicherplatz zur Verfügung. Zur Verringerung der Write Amplification empfehlen wir, 10 % eines Volumes nicht zu partitionieren, sodass der SSD-Controller diesen Speicherplatz für das Overprovisioning verwenden kann. Dadurch steht zwar weniger Speicherplatz zur Verfügung, aber die Leistung wird verbessert – auch wenn der Datenträger fast vollständig belegt ist.

Bei Instance-Speicher-Volumes, die TRIM unterstützen, können Sie den TRIM-Befehl dazu verwenden, dem SSD-Controller mitzuteilen, wann Sie Daten nicht mehr benötigen, die Sie geschrieben haben. Auf diese Weise hat der Controller mehr freien Speicherplatz zur Verfügung, wodurch die Write Amplification reduziert und die Leistung erhöht wird. Weitere Informationen finden Sie unter TRIM-Unterstützung für Instance-Speicher-Volumes.

Funktionen von Instances

Im Folgenden finden Sie eine Zusammenfassung von Funktionen für speicheroptimierte Instances.

Nur EBS NVMe-EBS Instance-Speicher Platzierungsgruppe

R4

Ja

Nein

Nein

Ja

R5

Ja

Ja

Nein

Ja

R5a

Ja

Ja

Nein

Ja

R5ad

Nein

Ja

NVME *

Ja

R5d

Nein

Ja

NVME *

Ja

R5dn

Nein

Ja

NVME *

Ja

R5n

Ja

Ja

Nein

Ja

R6g

Ja

Ja

Nein

Ja

R6gd

Nein

Ja

NVMe *

Ja
u-6tb1.metal

Ja

Ja

Nein

Nein

u-9tb1.metal

Ja

Ja

Nein

Nein

u-12tb1.metal

Ja

Ja

Nein

Nein

u-18tb1.metal

Ja

Ja

Nein

Nein

u-24tb1.metal

Ja

Ja

Nein

Nein

X1

Nein

Nein

SSD

Ja

X1e

Nein

Nein

SSD *

Ja

z1d

Nein

Ja

NVME *

Ja

* Der Root-Gerät-Datenträger muss ein Amazon EBS-Volume sein.

Weitere Informationen finden Sie unter:

Unterstützung für vCPUs

Speicheroptimierte Instances bieten eine hohe Anzahl von vCPUs, was Startprobleme bei Betriebssystemen zur Folge haben kann, die für ein niedrigeres vCPU-Limit ausgelegt sind. Es wird ausdrücklich empfohlen, beim Starten von speicheroptimierten Instances die neuesten AMIs zu verwenden.

Die folgenden AMIs unterstützen den Start von speicheroptimierten Instances:

  • Amazon Linux 2 (HVM)

  • Amazon Linux AMI 2016.03 (HVM) oder höher

  • Ubuntu Server 14.04 LTS (HVM)

  • Red Hat Enterprise Linux 7.1 (HVM)

  • SUSE Linux Enterprise Server 12 SP1 (HVM)

  • Windows Server 2019

  • Windows Server 2016

  • Windows Server 2012 R2

  • Windows Server 2012

  • Windows Server 2008 R2 64 Bit

  • Windows Server 2008 SP2 64 Bit

Versionshinweise

  • R4-Instances verfügen über bis zu 64 vCPUs und sind mit zwei für AWS angepassten auf E5-2686v4 basierenden Intel XEON-Prozessoren ausgestattet, die eine hohe Speicherbandbreite und größere L3-Caches bieten, um die Leistung von In-Memory-Anwendungen zu steigern.

  • R5- und R5d-Instances verfügen über einen Intel Xeon Platinum 8000-Prozessor entweder der ersten (SkyLake-SP) oder der zweiten Generation (Cascade Lake) mit 3,1 GHz.

  • R5a- und R5ad-Instances nutzen einen 2,5-GHz-AMD-Prozessor der Serie EPYC 7000.

  • R6g- und R6gd-Instances nutzen einen AWS Graviton2-Prozessor auf der Basis der 64-Bit ARM-Architektur.

  • High-Memory-Instances (u-6tb1.metal, u-9tb1.metal und u-12tb1.metal) sind die ersten Instances auf Basis einer Plattform mit acht Sockets für Intel Xeon Platinum 8176M (Skylake)-Prozessoren der neuesten Generation, optimiert für unternehmenskritische Workloads. Bei High-Memory-Instances mit 18 TB und 24 TB (u-18tb1.metal und u-24tb1.metal) handelt es sich um die ersten Instances auf Basis einer Plattform mit acht Sockets für Intel® Xeon® Scalable 8280L (Cascade Lake)-Prozessoren der 2. Generation.

  • X1e- und X1-Instances verfügen über bis zu 128 vCPUs und sind mit vier Intel Xeon E7-8880 v3-Prozessoren ausgestattet, die eine hohe Speicherbandbreite und größere L3-Caches bieten, um die Leistung von In-Memory-Anwendungen zu steigern.

  • Für Instances, die auf dem Nitro-System basieren, gelten die folgenden Anforderungen:

    Die folgenden Linux-AMIs erfüllen diese Anforderungen:

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03

    • Ubuntu 14.04 (mit linux-aws-Kernel) oder höher

    • Red Hat Enterprise Linux 7.4 oder höher

    • SUSE Linux Enterprise Server 12 SP2 oder höher

    • CentOS 7.4.1708 oder höher

    • FreeBSD 11.1 oder höher

    • Debian GNU/Linux 9 oder höher

  • Für Instances mit AWS Graviton-Prozessoren gelten die folgenden Anforderungen:

    • Sie müssen eine AMI für die 64-Bit-ARM-Architektur verwenden.

    • Sie müssen das Booten im UEFI-Modus mit ACPI-Tabellen sowie das ACPI Hot-Plug für PCI-Geräte unterstützen.

    Die folgenden AMIs erfüllen diese Anforderungen:

    • Amazon Linux 2 (64-Bit ARM)

    • Ubuntu 16.04 oder höher (64-Bit ARM)

    • Red Hat Enterprise Linux 8.0 oder höher (64-Bit ARM)

    • SUSE Linux Enterprise Server 15 oder höher (64-Bit ARM)

    • Debian 10 oder höher (64-Bit-Arm)

  • Instances, die auf den Nitro System-Instances basieren, unterstützen maximal 28 Anhänge, einschließlich Netzwerkschnittstellen, EBS-Volumes und NVMe-Instance-Speicher-Volumes. Weitere Informationen finden Sie unter Nitro-System-Volumenbegrenzungen.

  • Wenn eine Bare-Metal-Instance gestartet wird, wird der zugrunde liegende Server gestartet, wobei alle Hardware- und Firmwarekomponenten überprüft werden. Dies bedeutet, dass es ab dem Zeitpunkt, an dem die Instance in den Betriebszustand übergeht, 20 Minuten dauern kann, bis sie über das Netzwerk verfügbar wird.

  • Zum Anfügen und Trennen von EBS-Volumes oder sekundären Netzwerkschnittstellen von einer Bare-Metal-Instance wird nativer PCIe-Hotplug-Support benötigt. Amazon Linux 2 und die neuesten Versionen von Amazon Linux AMI unterstützen im Gegensatz zu älteren Versionen native PCIe-Hotplugs. Sie müssen die folgenden Konfigurationsoptionen des Linux-Kernels aktivieren:

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Bare-Metal-Instances nutzen anstelle eines auf dem E/A-Port basierenden seriellen Geräts ein PCI-basiertes serielles Gerät. Der Linux-Upstream-Kernel und die neuesten Amazon Linux AMIs unterstützen dieses Gerät. Bare-Metal-Instances ermöglichen dem System über eine ACPI SPCR-Tabelle zudem, das PCI-basierte serielle Gerät automatisch zu nutzen. Die neuesten Windows-AMIs nutzen automatisch das PCI-basierte serielle Gerät.

  • Sie können X1-Instances nicht mit einer Windows Server 2008 SP2 64-Bit-AMI starten, ausgenommen x1.16xlarge-Instances.

  • Sie können X1e-Instances nicht mit einer Windows Server 2008 SP2 64-Bit-AMI starten.

  • Mit älteren Versionen des Windows Server 2008 R2 64-Bit-AMI können Sie keine r4.large- und r4.4xlarge-Instances starten. Wenn dieses Problem auftritt, aktualisieren Sie auf die neueste Version dieses AMI.

  • Die Gesamtanzahl der Instances, die Sie in einer Region starten können, ist begrenzt. Für bestimmte Instance-Typen gelten zusätzliche Einschränkungen. Weitere Informationen finden Sie unter Wie viele Instances kann ich in Amazon EC2 ausführen? in Amazon EC2 – Häufig gestellte Fragen.