Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Amazon EC2-Instance-Typen
Wenn Sie eine Instance starten, bestimmt der von Ihnen angegebene Instance-Typ die Hardware der Host-Computer für die Instance. Jeder Instance-Typ bietet unterschiedliche Rechenleistung, Arbeitsspeicher- und Speicher-Kapazität und wird abhängig von diesen Eigenschaften in Instance-Familien eingeordnet. Wählen Sie einen Instance-Typ den Anforderungen der Anwendung oder Software entsprechend aus, die Sie in Ihrer Instance ausführen möchten. Weitere Informationen zu Features und Anwendungsfällen finden Sie unter Instance-Typen von Amazon EC2
Einige Ressourcen des Host-Computers, wie z. B. CPU, Arbeitsspeicher und Instance-Speicher, werden von Amazon EC2 einer bestimmten Instance zugewiesen. Amazon EC2 teilt andere Ressourcen des Host-Computers, z. B. das Netzwerk und das Datenträgersubsystem, zwischen mehreren Instances. Wenn die Instances eines Host-Computers jeweils möglichst viele Ressourcen nutzen möchten, wird die Ressource gleichmäßig aufgeteilt. Wenn eine Ressource jedoch nicht voll ausgelastet ist, kann eine Instance einen höheren Anteil der verfügbaren Ressource nutzen.
Jeder Instance-Typ stellt Leistung von einer gemeinsamen Ressource je nach Anforderung bereit. Beispielsweise weisen Instance-Typen mit hoher I/O Leistung eine größere Allokation gemeinsam genutzter Ressourcen auf. Durch die Zuweisung eines größeren Anteils gemeinsam genutzter Ressourcen wird auch die Varianz der I/O Leistung verringert. Für die meisten Anwendungen ist eine moderate I/O Leistung mehr als ausreichend. Für Anwendungen, die eine höhere oder konsistentere I/O Leistung erfordern, sollten Sie jedoch einen Instance-Typ mit höherer I/O Leistung in Betracht ziehen.
Verfügbare Instance-Typen
Amazon EC2 bietet eine große Auswahl an Instance-Typen, die für verschiedene Anwendungsfälle optimiert sind. Die Instance-Typen umfassen unterschiedliche Kombinationen von CPU-, Arbeitsspeicher-, Speicher- und Netzwerkkapazitäten und geben Ihnen die nötige Flexibilität, um die richtige Mischung von Ressourcen für Ihre Anwendungen zu wählen. Jeder Instance-Typ umfasst eine oder mehrere Instance-Größen, so dass Sie Ihre Ressourcen an die Anforderungen Ihrer Ziel-Workloads anpassen können.
Namenskonvention für Instance-Typen
Die Namen basieren auf der Instance-Familie, der Generation, der Prozessorfamilie, den Fähigkeiten und der Größe. Weitere Informationen finden Sie unter Namenskonventionen im Handbuch für Amazon-EC2-Instance-Typen.
Suchen eines -Instance-Typs
Informationen zum Bestimmen, welche Instance-Typen Ihren Anforderungen entsprechen, z. B. unterstützte Regionen, Datenverarbeitungs- oder Speicherressourcen, finden Sie unter Finden Sie einen EC2 Amazon-Instance-Typ und Spezifikationen für Amazon-EC2-Instance-Typen im Leitfaden für Amazon-EC2-Instance-Typen.
Hardwarespezifikationen
Detaillierte Spezifikationen finden Sie unter Spezifikationen im Leitfaden für Amazon-EC2-Instance-Typen. Informationen zur Preisgestaltung finden Sie unter On-Demand-Preise von Amazon EC2
Um die richtigen Instance-Typen für Ihre Anforderungen zu bestimmen, empfehlen wir, eine Instance zu starten und Ihre eigene Benchmarkanwendung zu verwenden. Da Instances pro Sekunde abgerechnet werden, können Sie mehrere Instance-Typen bequem und ohne großen Kostenaufwand testen, bevor Sie eine Entscheidung treffen. Falls sich Ihre Anforderungen ändern, können Sie selbst nach der Entscheidung den Instance-Typ anpassen. Weitere Informationen finden Sie unter Änderungen des EC2 Amazon-Instanztyps.
Hypervisor-typ
Amazon EC2 unterstützt die folgenden Hypervisors: Xen und Nitro.
Nitro-basierte Instances
-
Universell einsetzbar: M5 | M5a | M5ad | M5d | M5dn | M5Zn | M6a | M6g | M6g | M6gd | M6i | M6id | M6idn | M6in | M7in | M7a | M7g | M7gd | M7i | M7i-Flex | M8a | M8azn | M8g | M8GB | M8GB | M8 GB | M8 M8GD | M8Gn | M8i | M8id | M8i-Flex | T3 | T3a | T4g
-
Für Rechenleistung optimiert: C5 | C5a | C5ad | C5d | C5n | C6a | C6g | C6GD | C6Gn | C6i | C6id | C6in | C7a | C7g | C7gd | C7gn | C7i | C7i-Flex | C8a | C8g | C8GB | C8GD | C8gn | C8i | C8id | C8i-Flex
-
Speicheroptimiert: R5 | R5a | R5ad | R5b | R5d | R5dn | R5n | R6a | R6g | R6gd | R6i | R6id | R6idn | R6in | R7a | R7g | R7g | R7gd | R7i | R7iz | R8a | R8g | R8GB | R8i | R8id | R8i-Flex | U-3 TB | U-6 TB | U-9 TB | U-12 TB | U-12 TB | U-18 TB1 | U-24 TB | U7i-6 TB | U7i-8 TB | U7i-8 TB | U7i-12 TB | U7in-16 TB | U7in-24 TB | U7in-32 TB | U7in-32 TB | x2ID | X2iDN | X2IEZN | X8G | X8ADZ | X8i | z1d
-
Speicheroptimiert: D3 | D3en | I3en | I4g | I4i | I7i | I7ie | I8g | I8ge | Im4gn | Is4gen
-
Beschleunigtes Rechnen: DL1 DL2q | | F2 | G4ad | G4dn | G5 | G5g | G6 | G6e | G6f | Gr6 | Gr6f | G7e | Inf1 | Inf2 | P4d | P4de | P5 | P5e | P5en | P6-B200 | P6-B300 | P6e- GB200 | Trn1 | Trn1n | Trnnn 2 | Trn2u | VT1
-
Hochleistungsrechnen: HPC6a | HPC6id | HPC7a | HPC7G | HPC8a
-
Frühere Generation: A1 | P3dn
Weitere Informationen zu den unterstützten Versionen von Nitro-Hypervisor finden Sie unter Unterstützung von Netzwerk-Features im Leitfaden für Amazon-EC2-Instance-Typen.
Xen-based Instances
-
Allgemeine Zwecke: M1 | M2 | M3 | M4 | T1 | T2
-
Für Datenverarbeitung optimiert: C1 | C3 | C4
-
Arbeitsspeicheroptimiert:: R3 | R4 | X1 | X1e
-
Speicheroptimiert: D2 | H1 | I2 | I3
-
Beschleunigte Datenverarbeitung:: F1 | G3 | P2 | P3
AMI-Virtualisierungstypen
Der Virtualisierungstyp Ihrer Instance wird durch das AMI bestimmt, das zum Starten der Instance verwendet wird. Instance-Typen der aktuellen Generation unterstützen nur eine Hardware Virtual Machine (HVM). Einige Instance-Typen der vorherigen Generation unterstützen paravirtual (PV) und einige AWS Regionen unterstützen PV-Instances. Weitere Informationen finden Sie unter Virtualisierungstypen.
Um optimale Leistung zu erzielen, empfehlen wir die Verwendung eines HVM-AMI. Darüber hinaus AMIs sind HVM erforderlich, um die Vorteile erweiterter Netzwerke nutzen zu können. Die HVM-Virtualisierung nutzt die von der Plattform bereitgestellte hardwaregestützte Technologie. AWS Mit HVM-Virtualisierung kann die VM wie auf einer nativen Hardwareplattform ausgeführt werden. Es werden jedoch weiterhin PV-Netzwerk- und Speicher-Treiber für bestmögliche Leistung eingesetzt.
Prozessoren
EC2-Instances unterstützen eine Vielzahl von Prozessoren.
Intel-Prozessoren
Amazon-EC2-Instances, die auf Intel-Prozessoren laufen, können die folgenden Feature enthalten. Nicht alle Instances, die auf Intel-Prozessoren laufen, unterstützen alle diese Prozessor-Feature. Ausführliche Informationen darüber, welche Feature für jeden Instance-Typ verfügbar sind, finden Sie unter Amazon-EC2-Instance-Typen
Intel AES New Instructions (AES-NI) – Der Befehlssatz für Intel AES-NI-Verschlüsselung verbessert den Originalalgorithmus Advanced Encryption Standard (AES) in Hinblick auf schnelleren Datenschutz und bessere Sicherheit. Alle EC2-Instances der aktuellen Generation unterstützten dieses Prozessorfeature.
Intel Advanced Vector Extensions (Intel AVX, Intel und Intel AVX-512) — Intel AVX und Intel AVX2 sind 256-Bit AVX2, und Intel AVX-512 ist eine 512-Bit-Befehlssatzerweiterung, die für Anwendungen konzipiert ist, die intensiv mit Floating Point (FP) arbeiten. Intel AVX-Befehle verbessern die Leistung für Anwendungen wie Bild- und audio/video Bildverarbeitung, wissenschaftliche Simulationen, Finanzanalysen sowie 3D-Modellierung und -Analyse. Diese Funktionen sind nur auf Instances verfügbar, die mit HVM AMIs gestartet wurden.
Intel Turbo Boost Technology — Prozessoren der Intel Turbo Boost Technology führen Kerne automatisch schneller als die Basisbetriebsfrequenz aus.
Intel Deep Learning Boost (Intel DL Boost) — beschleunigt KI-Deep-Learning-Anwendungsfälle. Die skalierbaren Intel Xeon Prozessoren der zweiten Generation erweitern den Intel AVX-512 um neue Vector Neural Network Instruction (VNNI/INT8) that significantly increases deep learning inference performance over previous generation Intel Xeon Scalable processors (with FP32) for image recognition/segmentation, Objekterkennung, Spracherkennung, Sprachübersetzung, Empfehlungssysteme, Verstärkungslernen und mehr). VNNI ist möglicherweise nicht mit allen Linux-Distributionen kompatibel.
Die folgenden Instances unterstützen VNNI:
M5n,R5n,M5dn,M5zn,R5b,R5dn,D3,D3enundC6i. Die InstancesC5undC5dunterstützen VNNI nur für12xlarge-,24xlarge- undmetal-Instances.
Die branchenüblichen Benennungskonventionen für 64-Bit können zu Verwirrung führen. CPUs Prozessorhersteller Advanced Micro Devices (AMD) stellte die erste kommerziell erfolgreiche 64-Bit-Architektur basierend auf dem x86-Befehlssatz von Intel vor. Folglich wird die Architektur allgemein als AMD64 unabhängig vom Chiphersteller bezeichnet. Windows und diverse Linux-Distributionen folgen dieser Konvention. Dies erklärt, warum in den internen Systeminformationen einer Instanz, auf der Ubuntu oder Windows ausgeführt wird, die CPU-Architektur so AMD64 angezeigt wird, als ob die Instanzen auf Intel-Hardware laufen.
AMD-Prozessoren
Amazon-EC2-Instances, die auf AMD-EPYC
-
AMD Secure Memory Encryption (SME)
-
AMD Transparent Single Key Memory Encryption (TSME)
-
AMD Advanced Vector Extensions (AVX)
-
Sichere verschlüsselte AMD-Virtualisierung – Sicheres verschachteltes Paging (SEV-SNP)
-
Vector Neural Network Instructions (VNNI)
-
BFloat16
AWS Graviton-Prozessoren
AWS Graviton
Weitere Informationen finden Sie unter Erste Schritte mit Graviton
AWS Trainium
Die von AWS Trainium
AWS Inferenz
Von AWS Inferentia
Es gibt eine Vielzahl von Möglichkeiten für den Einstieg:
-
Verwenden Sie SageMaker KI, einen vollständig verwalteten Service, der der einfachste Weg ist, mit Modellen für maschinelles Lernen zu beginnen. Weitere Informationen finden Sie unter Erste Schritte mit SageMaker KI im Amazon SageMaker AI Developer Guide.
-
Starten Sie eine Inf1- oder Inf2-Instance mit dem Deep-Learning-AMI. Weitere Informationen finden Sie unter AWS Inferentia with DLAMI im AWS Deep Learning AMIs -Developer-Handbuch.
-
Starten Sie eine Inf1- oder Inf2-Instance mit Ihrem eigenen AMI und installieren Sie den AWS Neuron SDK
, mit dem Sie Deep-Learning-Modelle für AWS Inferentia kompilieren, ausführen und profilieren können. -
Starten Sie eine Container-Instance mit einer Inf1- oder Inf2-Instance und einem Amazon-ECS-optimierten AMI. Weitere Informationen finden Sie unter Amazon Linux 2 (Inferentia) AMIs im Amazon Elastic Container Service Developer Guide.
-
Erstellen Sie einen Amazon EKS-Cluster mit Knoten, auf denen Inf1-Instances ausgeführt werden. Weitere Informationen finden Sie unter Inferentia-Support im Amazon EKS-Benutzerhandbuch.