Amazon EC2-Instance-Typen - Amazon Elastic Compute Cloud

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Amazon EC2-Instance-Typen

Wenn Sie eine Instance starten, bestimmt der von Ihnen angegebene Instance-Typ die Hardware der Host-Computer für die Instance. Jeder Instance-Typ bietet unterschiedliche Rechenleistung, Arbeitsspeicher- und Speicher-Kapazität und wird abhängig von diesen Eigenschaften in Instance-Familien eingeordnet. Wählen Sie einen Instance-Typ den Anforderungen der Anwendung oder Software entsprechend aus, die Sie in Ihrer Instance ausführen möchten. Weitere Informationen zu Features und Anwendungsfällen finden Sie unter Instance-Typen von Amazon EC2.

Einige Ressourcen des Host-Computers, wie z. B. CPU, Arbeitsspeicher und Instance-Speicher, werden von Amazon EC2 einer bestimmten Instance zugewiesen. Amazon EC2 teilt andere Ressourcen des Host-Computers, z. B. das Netzwerk und das Datenträgersubsystem, zwischen mehreren Instances. Wenn die Instances eines Host-Computers jeweils möglichst viele Ressourcen nutzen möchten, wird die Ressource gleichmäßig aufgeteilt. Wenn eine Ressource jedoch nicht voll ausgelastet ist, kann eine Instance einen höheren Anteil der verfügbaren Ressource nutzen.

Jeder Instance-Typ stellt Leistung von einer gemeinsamen Ressource je nach Anforderung bereit. Beispielsweise weisen Instance-Typen mit hoher I/O Leistung eine größere Allokation gemeinsam genutzter Ressourcen auf. Durch die Zuweisung eines größeren Anteils gemeinsam genutzter Ressourcen wird auch die Varianz der I/O Leistung verringert. Für die meisten Anwendungen ist eine moderate I/O Leistung mehr als ausreichend. Für Anwendungen, die eine höhere oder konsistentere I/O Leistung erfordern, sollten Sie jedoch einen Instance-Typ mit höherer I/O Leistung in Betracht ziehen.

Verfügbare Instance-Typen

Amazon EC2 bietet eine große Auswahl an Instance-Typen, die für verschiedene Anwendungsfälle optimiert sind. Die Instance-Typen umfassen unterschiedliche Kombinationen von CPU-, Arbeitsspeicher-, Speicher- und Netzwerkkapazitäten und geben Ihnen die nötige Flexibilität, um die richtige Mischung von Ressourcen für Ihre Anwendungen zu wählen. Jeder Instance-Typ umfasst eine oder mehrere Instance-Größen, so dass Sie Ihre Ressourcen an die Anforderungen Ihrer Ziel-Workloads anpassen können.

Namenskonvention für Instance-Typen

Die Namen basieren auf der Instance-Familie, der Generation, der Prozessorfamilie, den Fähigkeiten und der Größe. Weitere Informationen finden Sie unter Namenskonventionen im Handbuch für Amazon-EC2-Instance-Typen.

Suchen eines -Instance-Typs

Informationen zum Bestimmen, welche Instance-Typen Ihren Anforderungen entsprechen, z. B. unterstützte Regionen, Datenverarbeitungs- oder Speicherressourcen, finden Sie unter Finden Sie einen EC2 Amazon-Instance-Typ und Spezifikationen für Amazon-EC2-Instance-Typen im Leitfaden für Amazon-EC2-Instance-Typen.

Hardwarespezifikationen

Detaillierte Spezifikationen finden Sie unter Spezifikationen im Leitfaden für Amazon-EC2-Instance-Typen. Informationen zur Preisgestaltung finden Sie unter On-Demand-Preise von Amazon EC2.

Um die richtigen Instance-Typen für Ihre Anforderungen zu bestimmen, empfehlen wir, eine Instance zu starten und Ihre eigene Benchmarkanwendung zu verwenden. Da Instances pro Sekunde abgerechnet werden, können Sie mehrere Instance-Typen bequem und ohne großen Kostenaufwand testen, bevor Sie eine Entscheidung treffen. Falls sich Ihre Anforderungen ändern, können Sie selbst nach der Entscheidung den Instance-Typ anpassen. Weitere Informationen finden Sie unter Änderungen des EC2 Amazon-Instanztyps.

Hypervisor-typ

Amazon EC2 unterstützt die folgenden Hypervisors: Xen und Nitro.

Nitro-basierte Instances
  • Universell einsetzbar: M5 | M5a | M5ad | M5d | M5dn | M5Zn | M6a | M6g | M6g | M6gd | M6i | M6id | M6idn | M6in | M7in | M7a | M7g | M7gd | M7i | M7i-Flex | M8a | M8azn | M8g | M8GB | M8GB | M8 GB | M8 M8GD | M8Gn | M8i | M8id | M8i-Flex | T3 | T3a | T4g

  • Für Rechenleistung optimiert: C5 | C5a | C5ad | C5d | C5n | C6a | C6g | C6GD | C6Gn | C6i | C6id | C6in | C7a | C7g | C7gd | C7gn | C7i | C7i-Flex | C8a | C8g | C8GB | C8GD | C8gn | C8i | C8id | C8i-Flex

  • Speicheroptimiert: R5 | R5a | R5ad | R5b | R5d | R5dn | R5n | R6a | R6g | R6gd | R6i | R6id | R6idn | R6in | R7a | R7g | R7g | R7gd | R7i | R7iz | R8a | R8g | R8GB | R8i | R8id | R8i-Flex | U-3 TB | U-6 TB | U-9 TB | U-12 TB | U-12 TB | U-18 TB1 | U-24 TB | U7i-6 TB | U7i-8 TB | U7i-8 TB | U7i-12 TB | U7in-16 TB | U7in-24 TB | U7in-32 TB | U7in-32 TB | x2ID | X2iDN | X2IEZN | X8G | X8ADZ | X8i | z1d

  • Speicheroptimiert: D3 | D3en | I3en | I4g | I4i | I7i | I7ie | I8g | I8ge | Im4gn | Is4gen

  • Beschleunigtes Rechnen: DL1 DL2q | | F2 | G4ad | G4dn | G5 | G5g | G6 | G6e | G6f | Gr6 | Gr6f | G7e | Inf1 | Inf2 | P4d | P4de | P5 | P5e | P5en | P6-B200 | P6-B300 | P6e- GB200 | Trn1 | Trn1n | Trnnn 2 | Trn2u | VT1

  • Hochleistungsrechnen: HPC6a | HPC6id | HPC7a | HPC7G | HPC8a

  • Frühere Generation: A1 | P3dn

Weitere Informationen zu den unterstützten Versionen von Nitro-Hypervisor finden Sie unter Unterstützung von Netzwerk-Features im Leitfaden für Amazon-EC2-Instance-Typen.

Xen-based Instances
  • Allgemeine Zwecke: M1 | M2 | M3 | M4 | T1 | T2

  • Für Datenverarbeitung optimiert: C1 | C3 | C4

  • Arbeitsspeicheroptimiert:: R3 | R4 | X1 | X1e

  • Speicheroptimiert: D2 | H1 | I2 | I3

  • Beschleunigte Datenverarbeitung:: F1 | G3 | P2 | P3

AMI-Virtualisierungstypen

Der Virtualisierungstyp Ihrer Instance wird durch das AMI bestimmt, das zum Starten der Instance verwendet wird. Instance-Typen der aktuellen Generation unterstützen nur eine Hardware Virtual Machine (HVM). Einige Instance-Typen der vorherigen Generation unterstützen paravirtual (PV) und einige AWS Regionen unterstützen PV-Instances. Weitere Informationen finden Sie unter Virtualisierungstypen.

Um optimale Leistung zu erzielen, empfehlen wir die Verwendung eines HVM-AMI. Darüber hinaus AMIs sind HVM erforderlich, um die Vorteile erweiterter Netzwerke nutzen zu können. Die HVM-Virtualisierung nutzt die von der Plattform bereitgestellte hardwaregestützte Technologie. AWS Mit HVM-Virtualisierung kann die VM wie auf einer nativen Hardwareplattform ausgeführt werden. Es werden jedoch weiterhin PV-Netzwerk- und Speicher-Treiber für bestmögliche Leistung eingesetzt.

Prozessoren

EC2-Instances unterstützen eine Vielzahl von Prozessoren.

Intel-Prozessoren

Amazon-EC2-Instances, die auf Intel-Prozessoren laufen, können die folgenden Feature enthalten. Nicht alle Instances, die auf Intel-Prozessoren laufen, unterstützen alle diese Prozessor-Feature. Ausführliche Informationen darüber, welche Feature für jeden Instance-Typ verfügbar sind, finden Sie unter Amazon-EC2-Instance-Typen.

  • Intel AES New Instructions (AES-NI) – Der Befehlssatz für Intel AES-NI-Verschlüsselung verbessert den Originalalgorithmus Advanced Encryption Standard (AES) in Hinblick auf schnelleren Datenschutz und bessere Sicherheit. Alle EC2-Instances der aktuellen Generation unterstützten dieses Prozessorfeature.

  • Intel Advanced Vector Extensions (Intel AVX, Intel und Intel AVX-512) — Intel AVX und Intel AVX2 sind 256-Bit AVX2, und Intel AVX-512 ist eine 512-Bit-Befehlssatzerweiterung, die für Anwendungen konzipiert ist, die intensiv mit Floating Point (FP) arbeiten. Intel AVX-Befehle verbessern die Leistung für Anwendungen wie Bild- und audio/video Bildverarbeitung, wissenschaftliche Simulationen, Finanzanalysen sowie 3D-Modellierung und -Analyse. Diese Funktionen sind nur auf Instances verfügbar, die mit HVM AMIs gestartet wurden.

  • Intel Turbo Boost Technology — Prozessoren der Intel Turbo Boost Technology führen Kerne automatisch schneller als die Basisbetriebsfrequenz aus.

  • Intel Deep Learning Boost (Intel DL Boost) — beschleunigt KI-Deep-Learning-Anwendungsfälle. Die skalierbaren Intel Xeon Prozessoren der zweiten Generation erweitern den Intel AVX-512 um neue Vector Neural Network Instruction (VNNI/INT8) that significantly increases deep learning inference performance over previous generation Intel Xeon Scalable processors (with FP32) for image recognition/segmentation, Objekterkennung, Spracherkennung, Sprachübersetzung, Empfehlungssysteme, Verstärkungslernen und mehr). VNNI ist möglicherweise nicht mit allen Linux-Distributionen kompatibel.

    Die folgenden Instances unterstützen VNNI: M5n, R5n, M5dn, M5zn, R5b, R5dn, D3, D3en und C6i. Die Instances C5 und C5d unterstützen VNNI nur für 12xlarge-, 24xlarge- und metal-Instances.

Die branchenüblichen Benennungskonventionen für 64-Bit können zu Verwirrung führen. CPUs Prozessorhersteller Advanced Micro Devices (AMD) stellte die erste kommerziell erfolgreiche 64-Bit-Architektur basierend auf dem x86-Befehlssatz von Intel vor. Folglich wird die Architektur allgemein als AMD64 unabhängig vom Chiphersteller bezeichnet. Windows und diverse Linux-Distributionen folgen dieser Konvention. Dies erklärt, warum in den internen Systeminformationen einer Instanz, auf der Ubuntu oder Windows ausgeführt wird, die CPU-Architektur so AMD64 angezeigt wird, als ob die Instanzen auf Intel-Hardware laufen.

AMD-Prozessoren

Amazon-EC2-Instances, die auf AMD-EPYC-Prozessoren ausgeführt werden, können Ihnen helfen, sowohl Kosten als auch Leistung für Ihre Workloads zu optimieren. Diese Instances unterstützen möglicherweise die folgenden Prozessor-Feature. Nicht alle Instances, die auf Intel-Prozessoren laufen, unterstützen alle diese Prozessor-Feature. Ausführliche Informationen darüber, welche Feature für jeden Instance-Typ verfügbar sind, finden Sie unter Amazon-EC2-Instance-Typen.

  • AMD Secure Memory Encryption (SME)

  • AMD Transparent Single Key Memory Encryption (TSME)

  • AMD Advanced Vector Extensions (AVX)

  • Sichere verschlüsselte AMD-Virtualisierung – Sicheres verschachteltes Paging (SEV-SNP)

  • Vector Neural Network Instructions (VNNI)

  • BFloat16

AWS Graviton-Prozessoren

AWS Graviton ist eine Prozessorfamilie, die darauf ausgelegt ist, das beste Preis-Leistungs-Verhältnis für Ihre Workloads zu bieten, die auf Amazon EC2 EC2-Instances ausgeführt werden.

Weitere Informationen finden Sie unter Erste Schritte mit Graviton.

AWS Trainium

Die von AWS Trainium angetriebenen Instances wurden speziell für ein leistungsstarkes und kostengünstiges Deep-Learning-Training entwickelt. Sie können diese Instances verwenden, um die Verarbeitung natürlicher Sprache, Computer Vision und Empfehlungsmodelle zu trainieren, die in einer Vielzahl von Anwendungen verwendet werden, z. B. Spracherkennung, Empfehlung, Betrugserkennung sowie Image- und Videoklassifizierung. Verwenden Sie Ihre vorhandenen Workflows in gängigen ML-Frameworks wie PyTorch und. TensorFlow

AWS Inferenz

Von AWS Inferentia betriebene Instances wurden entwickelt, um Machine Learning zu beschleunigen. Sie bieten hohe Leistung und niedrige Latenzzeiten für Machine-Learning-Inferenzen. Diese Instances sind für die Bereitstellung von Deep-Learning-(DL)-Modellen für Anwendungen wie natürliche Sprachverarbeitung, Objekterkennung und -klassifizierung, Inhaltspersonalisierung und -filterung sowie Spracherkennung optimiert.

Es gibt eine Vielzahl von Möglichkeiten für den Einstieg:

  • Verwenden Sie SageMaker KI, einen vollständig verwalteten Service, der der einfachste Weg ist, mit Modellen für maschinelles Lernen zu beginnen. Weitere Informationen finden Sie unter Erste Schritte mit SageMaker KI im Amazon SageMaker AI Developer Guide.

  • Starten Sie eine Inf1- oder Inf2-Instance mit dem Deep-Learning-AMI. Weitere Informationen finden Sie unter AWS Inferentia with DLAMI im AWS Deep Learning AMIs -Developer-Handbuch.

  • Starten Sie eine Inf1- oder Inf2-Instance mit Ihrem eigenen AMI und installieren Sie den AWS Neuron SDK, mit dem Sie Deep-Learning-Modelle für AWS Inferentia kompilieren, ausführen und profilieren können.

  • Starten Sie eine Container-Instance mit einer Inf1- oder Inf2-Instance und einem Amazon-ECS-optimierten AMI. Weitere Informationen finden Sie unter Amazon Linux 2 (Inferentia) AMIs im Amazon Elastic Container Service Developer Guide.

  • Erstellen Sie einen Amazon EKS-Cluster mit Knoten, auf denen Inf1-Instances ausgeführt werden. Weitere Informationen finden Sie unter Inferentia-Support im Amazon EKS-Benutzerhandbuch.