Aktualisieren eines Services mit der Konsole - Amazon Elastic Container Service

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Aktualisieren eines Services mit der Konsole

Sie können einen Amazon-ECS-Service mit der Amazon-ECS-Konsole aktualisieren. Die aktuelle Service-Konfiguration ist vorausgefüllt. Sie können die Aufgabendefinition, die gewünschte Anzahl an Aufgaben, die Kapazitätsanbieterstrategie, die Plattformversion und die Bereitstellungskonfiguration oder eine beliebige Kombination hiervon aktualisieren.

Informationen zum Aktualisieren der Blau/Grün-Bereitstellungs-Konfiguration finden Sie unter Aktualisierung einer Blau/Grün-Bereitstellungs-Konfiguration über die Konsole.

Die folgenden Hinweise gelten für die Verwendung der Konsole:

Wenn Sie Ihren Service vorübergehend beenden möchten, setzen Sie Gewünschte Aufgaben auf 0. Wenn Sie dann bereit sind, den Service zu starten, aktualisieren Sie den Service mit der ursprünglichen Anzahl der gewünschten Aufgaben.

Die folgenden Hinweise gelten für die Verwendung der Konsole:

  • Sie müssen die verwenden, AWS Command Line Interface um einen Service zu aktualisieren, der einen der folgenden Parameter verwendet:

    • Blau/Grün-Bereitstellungen

    • Service Discovery – Sie können nur Ihre Service Discovery-Konfiguration anzeigen.

    • Tracking-Richtlinie mit einer benutzerdefinierten Metrik

    • Update Service – Sie können die awsvpc Netzwerkkonfiguration und die Übergangsfrist für die Zustandsprüfung nicht aktualisieren.

    Informationen zum Aktualisieren eines Services mithilfe der finden Sie AWS CLI unter update-service in der AWS Command Line Interface -Referenz.

  • Wenn Sie die von Containern verwendeten Ports in einer Aufgabendefinition ändern, müssen Sie möglicherweise die Sicherheitsgruppen für die Container-Instances aktualisieren, damit diese mit den aktualisierten Ports arbeiten können.

  • Amazon ECS aktualisiert die Sicherheitsgruppen nicht automatisch, die mit Elastic Load Balancing-Load Balancern oder Amazon-ECS-Container-Instances verbunden sind.

  • Wenn Ihr Service einen Load Balancer verwendet, kann die Konfiguration des Load Balancer, die für Ihren Service bei seiner Erstellung definiert wurde, nicht mit der Konsole geändert werden. Sie können stattdessen die AWS CLI oder das SDK verwenden, um die Load Balancer-Konfiguration zu ändern. Informationen zum Ändern der Konfiguration finden Sie unter UpdateService in der API-Referenz zum Amazon Elastic Container Service.

  • Wenn Sie die Aufgabendefinition für den Service aktualisieren, müssen der Containername und der Container-Port, die in der Load-Balancer-Konfiguration angegeben sind, in der Aufgabendefinition verbleiben.

Sie können einen vorhandenen Service während seiner Ausführung aktualisieren, um einige der Serverkonfigurationsparameter zu ändern, etwa die Anzahl der vom Service verwalteten Aufgaben, welche Aufgabendefinition von den Aufgaben verwendet wird, oder auch die Plattformversion, wenn Ihre Aufgaben den Starttyp Fargate verwenden. Ein Service, der eine Linux-Plattformversion verwendet, kann nicht aktualisiert werden, um eine Windows-Plattformversion zu verwenden und umgekehrt. Wenn Sie eine Anwendung haben, die mehr Kapazität benötigt, können Sie Ihren Service skalieren. Wenn Sie über ungenutzte Kapazitäten verfügen, können Sie die Anzahl der gewünschten Aufgaben in Ihrem Service reduzieren und Ressourcen freigeben und herunterskalieren.

Wenn Sie ein aktualisiertes Container-Image für Ihre Aufgaben verwenden möchten, können Sie eine neue Aufgabendefinitionsvision mit diesem Abbild erstellen und es mithilfe der Option Force new deployment (Neue Bereitstellung erzwingen) in der Konsole für Ihren Service bereitstellen.

Der Service Scheduler verwendet die minimalen gesunden Prozent und maximalen Prozentparameter (in der Bereitstellungskonfiguration für den Service), um die Bereitstellungsstrategie festzulegen.

Wenn ein Service den Bereitstellungstyp laufende Aktualisierung (ECS) verwendet, stellen die minimalen gesunden Prozent eine untere Grenze für die Anzahl der Aufgaben in einem Service dar, die während einer Bereitstellung im Zustand RUNNING verbleiben müssen, als Prozentsatz der gewünschten Anzahl von Aufgaben (aufgerundet auf die nächste ganze Zahl). Der Parameter gilt auch, wenn sich Container-Instances im Zustand DRAINING befinden, wenn der Service Aufgaben mit dem Starttyp EC2 enthält. Sie können diesen Parameter verwenden, um die Bereitstellung ohne zusätzliche Cluster-Kapazität durchzuführen. Wenn Ihr Service z. B. eine gewünschte Anzahl von vier Aufgaben und einen Mindestprozentsatz an gesunden Aufgaben von 50 % hat, könnte der Planer zwei bestehende Aufgaben stoppen, um Cluster-Kapazität freizugeben, bevor er zwei neue Aufgaben startet. Aufgaben für Services, die keinen Load Balancer verwenden, werden als fehlerfrei betrachtet, wenn sie sich im Status RUNNING befinden. Aufgaben für Services, die einen Load Balancer verwenden, gelten als gesund, wenn sie sich im Zustand RUNNING befinden und vom Load Balancer als gesund gemeldet werden. Der Standardwert für den minimalen gesunden Prozentsatz ist 100 Prozent.

Wenn ein Service den Bereitstellungstyp laufende Aktualisierung (ECS) verwendet, stellt der Parameter maximale Prozent eine Obergrenze für die Anzahl der Aufgaben in einem Service dar, die im Zustand PENDING, RUNNING oder STOPPING während einer Bereitstellung zulässig sind, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (abgerundet auf die nächste ganze Zahl). Der Parameter gilt auch, wenn sich Container-Instances im Zustand DRAINING befinden, wenn der Service Aufgaben mit dem Starttyp EC2 enthält. Mithilfe dieses Parameters können Sie die Größe der Bareitstellungsstapel definieren. Wenn Ihr Service beispielsweise eine gewünschte Anzahl von vier Aufgaben und einen maximalen Prozentwert von 200 Prozent hat, kann der Planer vier neue Aufgaben starten, bevor er die vier älteren Aufgaben stoppt. Voraussetzung dafür ist, dass die dafür erforderlichen Cluster-Ressourcen verfügbar sind. Der Standardwert für den maximalen Prozentsatz beträgt 200 Prozent.

Wenn der Service Scheduler während einer Aktualisierung eine Aufgabe ersetzt, entfernt der Service zuerst die Aufgabe aus dem Load Balancer (falls verwendet) und wartet, bis die Verbindungen ausgelaufen sind. Dann wird das Äquivalent von docker stop an die Container ausgegeben, die in der Aufgabe ausgeführt werden. Das löst ein SIGTERM-Signal und eine Zeitbeschränkung von 30 Sekunden aus, nach der SIGKILL gesendet und ein Stoppen der Container erzwungen wird. Wenn der Container das SIGTERM-Signal normal verarbeitet und innerhalb von 30 Sekunden nach Erhalt des Signals schließt, wird das SIGKILL-Signal gesendet. Der Service-Scheduler startet und stoppt Aufgaben entsprechend der Definition in Ihren Einstellungen für den mindestens fehlerfreien Prozentsatz und den maximalen Prozentsatz.

Der Service-Scheduler ersetzt auch Aufgaben, die nach einem Fehlschlagen einer Container-Zustandsprüfung oder einer Load-Balancer-Zielgruppen-Zustandsprüfung als fehlerhaft eingestuft wurden. Dieser Ersatz hängt von den Parametern maximumPercent und desiredCount der Servicedefinition ab. Wenn eine Aufgabe als fehlerhaft markiert ist, startet der Service-Scheduler zunächst eine Ersatzaufgabe. Wenn die Ersatzaufgabe den Zustand HEALTHY hat, stoppt der Service-Scheduler die fehlerhafte Aufgabe. Wenn die Ersatzaufgabe den Zustand UNHEALTHY hat, stoppt der Scheduler entweder die fehlerhafte Ersatzaufgabe oder die vorhandene fehlerhafte Aufgabe, sodass die Gesamtanzahl der Aufgaben auf einen Wert gleich desiredCount eingestellt wird. Wenn der Parameter maximumPercent den Scheduler daran hindert, zuerst eine Ersatzaufgabe zu starten, stoppt der Scheduler fehlerhafte Aufgaben einzeln nach dem Zufallsprinzip, um Kapazität freizugeben, und startet dann eine Ersatzaufgabe. Der Start- und Stoppvorgang wird fortgesetzt, bis alle fehlerhaften Aufgaben durch fehlerfreie Aufgaben ersetzt wurden. Sobald alle fehlerhaften Aufgaben ersetzt wurden und nur noch fehlerfreie Aufgaben ausgeführt werden, werden, wenn die Gesamtzahl der Aufgaben desiredCount übersteigt, die fehlerfreien Aufgaben nach dem Zufallsprinzip angehalten, bis die Gesamtzahl der Aufgaben gleich desiredCount ist. Weitere Informationen zu maximumPercent und desiredCount finden Sie unter Servicedefinitionsparamater.

Anmerkung

Dieses Verhalten gilt nicht für Aufgaben, die von Services ausgeführt und verwaltet werden, die den Bereitstellungstyp fortlaufende Aktualisierung verwenden. Während einer fortlaufenden Aktualisierung beendet der Service-Scheduler zuerst fehlerhafte Aufgaben und startet dann Ersatzaufgaben.

Wichtig

Wenn Sie die von den Containern in einer Aufgabendefinition verwendeten Ports ändern, müssen Sie eventuell die Sicherheitsgruppen für die Container-Instances aktualisieren, damit diese mit den aktualisierten Ports funktionieren.

Wenn Sie die Aufgabendefinition für den Service aktualisieren, müssen der Containername und der Container-Port, die bei der Erstellung des Services angegeben wurden, in der Aufgabendefinition bleiben.

Amazon ECS aktualisiert die Sicherheitsgruppen nicht automatisch, die mit Elastic Load Balancing-Load Balancern oder Amazon-ECS-Container-Instances verbunden sind.

So aktualisieren Sie einen Service (Amazon-ECS-Konsole)
  1. Öffnen Sie die Konsole unter https://console.aws.amazon.com/ecs/v2.

  2. Wählen Sie auf der Cluster-Seite den Cluster aus.

  3. Aktivieren Sie auf der Seite mit den Cluster-Details im Abschnitt Services das Kontrollkästchen neben dem Service und wählen Sie dann Aktualisieren aus.

  4. Wählen Sie Force new deployment (Neue Bereitstellung erzwingen) aus, damit Ihr Service eine neue Bereitstellung startet.

  5. Wählen Sie für Aufgabendefinition die Aufgabendefinitionsfamilie und die Version aus.

    Wichtig

    Die Konsole überprüft, ob die ausgewählte Aufgabendefinitionsfamilie und -revision mit der definierten Rechenkonfiguration kompatibel sind. Wenn Sie eine Warnung erhalten, überprüfen Sie sowohl die Kompatibilität Ihrer Aufgabendefinition als auch die ausgewählte Datenverarbeitungskonfiguration.

  6. Geben Sie für Gewünschte Aufgaben die Anzahl der Aufgaben ein, die Sie für den Service ausführen möchten.

  7. Für Min running tasks (Min. laufende Aufgaben) geben Sie die untere Grenze für die Anzahl der Aufgaben im Service an, die während einer Bereitstellung in diesem RUNNING-Zustand verbleiben müssen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (aufgerundet auf die nächste ganze Zahl). Weitere Informationen finden Sie unter Bereitstellungs-Konfiguration.

  8. Geben Sie für Max. laufende Aufgaben, die Obergrenze für die Anzahl der Aufgaben im Service ein, die sich während einer Bereitstellung im Status RUNNING oder PENDING befinden dürfen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (abgerundet auf die nächste Ganzzahl).

  9. Um zu konfigurieren, wie Amazon ECS Bereitstellungsfehler erkennt und behandelt, erweitern Sie Erkennung von Bereitstellungsfehlern, und wählen Sie dann Ihre Optionen.

    1. Um eine Bereitstellung anzuhalten, wenn die Aufgaben nicht gestartet werden können, wählen Sie Use the Amazon ECS deployment circuit breaker (Verwenden des Amazon-ECS-Bereitstellungsschutzschalters).

      Damit die Software die Bereitstellung automatisch auf den zuletzt abgeschlossenen Bereitstellungsstatus zurücksetzt, wenn der Bereitstellungsschutzschalter die Bereitstellung auf einen fehlerhaften Zustand setzt, wählen Sie Rollback bei Fehlern aus.

    2. Um eine Bereitstellung basierend auf Anwendungsmetriken zu stoppen, wählen Sie CloudWatch Alarm(e) verwenden aus. Wählen Sie dann unter CloudWatch Alarmname die Alarme aus. Um einen neuen Alarm zu erstellen, gehen Sie zur - CloudWatch Konsole.

      Damit die Software die Bereitstellung automatisch auf den zuletzt abgeschlossenen Bereitstellungsstatus zurücksetzt, wenn ein CloudWatch Alarm die Bereitstellung auf einen fehlgeschlagenen Zustand setzt, wählen Sie Rollback bei Fehlern aus.

  10. Um die Datenverarbeitungsoptionen zu ändern, erweitern Sie Datenverarbeitungskonfiguration und gehen Sie dann wie folgt vor:

    1. Wählen Sie für Services in AWS Fargate für Plattformversion die neue Version aus.

    2. Gehen Sie für Services, die eine Kapazitätsanbieterstrategie verwenden, für Kapazitätsanbieterstrategie wie folgt vor:

      • Um einen zusätzlichen Kapazitätsanbieter hinzuzufügen, wählen Sie Weitere hinzufügen aus. Wählen Sie dann für Kapazitätsanbieter den Kapazitätsanbieter aus.

      • Um einen Kapazitätsanbieter zu entfernen, wählen Sie rechts neben dem Kapazitätsanbieter die Option Entfernen aus.

      Ein Service, der einen Kapazitätsanbieter für Auto Scaling-Gruppen verwendet, kann nicht aktualisiert werden, um einen Fargate-Kapazitätsanbieter zu verwenden. Ein Service, der einen Fargate-Kapazitätsanbieter verwendet, kann nicht aktualisiert werden, um einen Kapazitätsanbieter für Auto Scaling-Gruppen zu verwenden.

  11. (Optional) Um Service Auto Scaling zu konfigurieren, erweitern Sie Service Auto Scaling und geben Sie dann die folgenden Parameter an.

    1. Um das Auto Scaling der Services zu verwenden, wählen Sie Auto Scaling des Services.

    2. Geben Sie für Minimale Anzahl von Aufgaben die Untergrenze der Anzahl der Aufgaben ein, die Service Auto Scaling verwenden soll. Die gewünschte Anzahl wird diese Anzahl nicht unterschreiten.

    3. Geben Sie für Maximale Anzahl von Aufgaben die Obergrenze der Anzahl der Aufgaben ein, die Service Auto Scaling verwenden soll. Die gewünschte Anzahl wird diese Anzahl nicht überschreiten.

    4. Wählen Sie den Richtlinien-Typ aus. Wählen Sie unter Skalierungsrichtlinientyp eine der folgenden Optionen aus.

      Zur Verwendung dieser Richtlinie … Vorgehensweise

      Zielverfolgung

      1. Wählen Sie für Scaling policy type (Typ der Skalierungsrichtlinie) Target tracking (Ziel-Nachverfolgung) aus.

      2. Geben Sie unter Richtlinienname, einen Namen für diese Richtlinie ein.

      3. Für ECS-Service-Metrik, wählen Sie eine der folgenden Metriken aus.

        • ECSServiceAverageCPUUtilization – Durchschnittliche CPU-Auslastung des Services.

        • ECSServiceAverageMemoryUtilization – Durchschnittliche Speicherauslastung des Services.

        • ALBRequestCountPerTarget – Anzahl der pro Ziel in einer Application Load Balancer-Zielgruppe abgeschlossenen Anforderungen.

      4. Für Zielwert, geben Sie den Wert ein, den der Service für die ausgewählte Metrik beibehält.

      5. Geben Sie für Scale-Out-Ruhephase die Zeitspanne in Sekunden nach einer Scale-Out-Aktivität (Aufgaben hinzufügen) ein, die durchlaufen muss, bevor eine weitere Scale-Out-Aktivität gestartet werden kann.

      6. Geben Sie für Scale-In-Ruhephase die Zeitspanne in Sekunden nach einer Scale-In-Aktivität (Aufgaben entfernen) ein, die vergehen muss, bevor eine weitere Scale-In-Aktivität gestartet werden kann.

      7. Um zu verhindern, dass die Richtlinie eine Abskalierungsaktivität ausführt, wählen Sie Turn off scale-in (Abskalierung ausschalten).

      8. • (Optional) Wählen Sie Scale-In deaktivieren aus, wenn Ihre Skalierungsrichtlinie aufwärts skaliert werden soll, um den Datenverkehr zu erhöhen, sie aber nicht zum Abskalieren benötigen soll, wenn der Datenverkehr abnimmt.

      Schrittweise Skalierung
      1. Wählen Sie für Scaling policy type (Typ der Skalierungsrichtlinie) Step scaling (Schrittweise Skalierung) aus.

      2. Geben Sie unter Richtlinienname den Namen für diese Richtlinie ein.

      3. Geben Sie unter Alarm name (Alarmname) einen eindeutigen Namen für den Alarm ein.

      4. Wählen Sie für die Amazon-ECS-Service-Metrik die Metrik, die für den Alarm verwendet werden soll.

      5. Wählen Sie für Statistik die Alarmstatistik aus.

      6. Wählen Sie unter Zeitraum den Zeitraum für den Alarm aus.

      7. Wählen Sie unter Alarmzustand aus, wie die ausgewählte Metrik mit dem definierten Schwellenwert verglichen werden soll.

      8. Geben Sie unter Schwellenwert für den Vergleich von Metriken und Auswertungszeitraum für die Auslösung des Alarms den Schwellenwert für den Alarm ein und wie lange der Schwellenwert ausgewertet werden soll.

      9. Führen Sie unter Skalierungsaktionen die folgenden Schritte aus:

        • Wählen Sie unter Aktion aus, ob eine bestimmte gewünschte Anzahl für Ihren Service hinzugefügt, entfernt oder festgelegt werden soll.

        • Wenn Sie Aufgaben hinzufügen oder entfernen möchten, geben Sie für Wert die Anzahl der Aufgaben (oder den Prozentsatz der vorhandenen Aufgaben) ein, die hinzugefügt oder entfernt werden sollen, wenn die Skalierungsaktion initiiert wird. Wenn Sie die gewünschte Anzahl festlegen möchten, geben Sie die Anzahl der Aufgaben ein. Wählen Sie unter Typ aus, ob der Wert eine Ganzzahl oder ein Prozentwert der vorhandenen gewünschten Anzahl ist.

        • Geben Sie für Untergrenze und Obergrenze die Untergrenze und Obergrenze der schrittweisen Skalierungsanpassung ein. Standardmäßig ist die untere Grenze für eine Hinzufügerichtlinie die Alarmschwelle und die obere Grenze ist positiv (+) unendlich. Standardmäßig ist die obere Grenze für eine Entfernerichtlinie die Alarmschwelle und die untere Grenze ist negativ (-) unendlich.

        • (Optional) Fügen Sie zusätzliche Skalierungsoptionen hinzu. Wählen Sie Neue Skalierungsaktion hinzufügen und wiederholen Sie dann die Schritte der Skalierungsaktionen.

        • Geben Sie für Ruhephase die Zeit in Sekunden ein, die gewartet werden soll, bis eine vorherige Skalierungsaktivität wirksam wird. Bei einer Add-Richtlinie ist dies die Zeit nach einer Scale-Out-Aktivität, in der die Skalierungsrichtlinie Scale-In-Aktivitäten blockiert und begrenzt, wie viele Aufgaben gleichzeitig aufskaliert werden können. Bei einer Richtlinie zum Entfernen ist dies die Zeit nach einer Scale-In-Aktivität, die vergehen muss, bevor eine weitere Scale-In-Aktivität gestartet werden kann.

  12. (Optional) Um Service Connect zu verwenden, wählen Sie Turn on Service Connect (Service Connect aktivieren) aus, und geben Sie dann Folgendes an:

    1. Geben Sie unter Service Connect configuration (Service-Connect-Konfiguration) den Client-Modus an.

      • Wenn Ihr Service eine Netzwerk-Client-Anwendung ausführt, die nur eine Verbindung zu anderen Services im Namespace herstellen muss, wählen Sie Client side only (Nur Client-Seite) aus.

      • Wenn Ihr Service eine Netzwerk- oder Webservice-Anwendung ausführt und Endpunkte für diesen Service bereitstellen muss und eine Verbindung zu anderen Services im Namespace herstellt, wählen Sie Client and server (Client und Server) aus.

    2. Um einen Namespace zu verwenden, der nicht der Standard-Cluster-Namespace ist, wählen Sie für Namespace den Service-Namespace aus.

  13. Wenn Ihre Aufgabe ein Daten-Volume verwendet, das mit der Konfiguration bei der Bereitstellung kompatibel ist, können Sie das Volume konfigurieren, indem Sie Volume erweitern.

    Der Volume-Name und der Volume-Typ werden konfiguriert, wenn Sie eine Revision der Aufgabendefinition erstellen, und können nicht geändert werden, wenn Sie einen Service aktualisieren. Um den Volume-Namen und -Typ zu aktualisieren, müssen Sie eine neue Revision der Aufgabendefinition erstellen und den Service mithilfe der neuen Revision aktualisieren.

    So konfigurieren Sie diesen Volume-Typ Vorgehensweise

    Amazon EBS

    1. Wählen Sie für EBS-Volume-Typ den Typ des EBS-Volumes aus, den Sie an Ihre Aufgabe anfügen möchten.

    2. Geben Sie für Größe (GiB ) einen gültigen Wert für die Volume-Größe in Gibibyte (GiB ) ein. Sie können mindestens 1 GiB und maximal 16.384 GiB Volume-Größe angeben. Dieser Wert ist erforderlich, es sei denn, Sie geben eine Snapshot-ID an.

    3. Geben Sie für IOPS die maximale Anzahl von Eingabe-/Ausgabevorgängen (IOPS) ein, die das Volume bereitstellen soll. Dieser Wert ist nur für die gp3 Volume-Typen io1io2, und konfigurierbar.

    4. Geben Sie für Durchsatz (MiB/s) den Durchsatz ein, den das Volume bereitstellen soll, in Mebibyte pro Sekunde ( MiBpsoder MiB/s). Dieser Wert ist nur für den gp3 Volume-Typ konfigurierbar.

    5. Wählen Sie für Snapshot-ID einen vorhandenen Amazon-EBS-Volume-Snapshot aus oder geben Sie den ARN eines Snapshots ein, wenn Sie ein Volume aus einem Snapshot erstellen möchten. Sie können auch ein neues, leeres Volume erstellen, indem Sie keine Snapshot-ID auswählen oder eingeben.

    6. Wählen Sie für Dateisystemtyp den Typ des Dateisystems aus, das für die Datenspeicherung und den Abruf auf dem Volume verwendet werden soll. Sie können entweder den Standard des Betriebssystems oder einen bestimmten Dateisystemtyp auswählen. Der Standardwert für Linux ist XFS. Für Volumes, die aus einem Snapshot erstellt wurden, müssen Sie denselben Dateisystemtyp angeben, den das Volume beim Erstellen des Snapshots verwendet hat. Wenn der Dateisystemtyp nicht übereinstimmt, kann die Aufgabe nicht gestartet werden.

    7. Wählen Sie für Infrastrukturrolle eine IAM-Rolle mit den erforderlichen Berechtigungen aus, mit denen Amazon ECS Amazon-EBS-Volumes für Aufgaben verwalten kann. Sie können die AmazonECSInfrastructureRolePolicyForVolumes verwaltete Richtlinie an die Rolle anfügen oder die Richtlinie als Leitfaden verwenden, um eine eigene Richtlinie mit Berechtigungen zu erstellen und anzuhängen, die Ihren spezifischen Anforderungen entsprechen. Weitere Informationen zu den erforderlichen Berechtigungen finden Sie unter Amazon-ECS-Infrastruktur-IAM-Rolle.

    8. Wählen Sie für Verschlüsselung die Option Standard aus, wenn Sie die Amazon-EBS-Verschlüsselung standardmäßig verwenden möchten. Wenn für Ihr Konto standardmäßig Verschlüsselung konfiguriert ist, wird das Volume mit dem AWS Key Management Service (AWS KMS)-Schlüssel verschlüsselt, der in der -Einstellung angegeben ist. Wenn Sie Standard wählen und die Amazon-EBS-Standardverschlüsselung nicht aktiviert ist, wird das Volume unverschlüsselt.

      Wenn Sie Benutzerdefiniert wählen, können Sie eine Ihrer Wahl für AWS KMS key die Volume-Verschlüsselung angeben.

      Wenn Sie Keine wählen, ist das Volume unverschlüsselt, es sei denn, Sie haben die standardmäßige Verschlüsselung konfiguriert oder wenn Sie ein Volume aus einem verschlüsselten Snapshot erstellen.

    9. Wenn Sie Benutzerdefiniert für die Verschlüsselung ausgewählt haben, müssen Sie die angeben AWS KMS key , die Sie verwenden möchten. Wählen Sie für KMS-Schlüssel einen aus AWS KMS key oder geben Sie einen Schlüssel-ARN ein. Wenn Sie Ihr Volume mit einem symmetrischen, vom Kunden verwalteten Schlüssel verschlüsseln möchten, stellen Sie sicher, dass Sie über die richtigen Berechtigungen verfügen, die in Ihrer AWS KMS key Richtlinie definiert sind. Weitere Informationen finden Sie unter Datenverschlüsselung für Amazon-EBS-Volumes.

    10. (Optional) Unter Tags können Sie Ihrem Amazon-EBS-Volume Tags hinzufügen, indem Sie entweder Tags aus der Aufgabendefinition oder dem Service propagieren oder eigene Tags bereitstellen.

      Wenn Sie Tags aus der Aufgabendefinition propagieren möchten, wählen Sie Aufgabendefinition für Tags aus propagieren aus. Wenn Sie Tags aus dem Service propagieren möchten, wählen Sie Service für Tags aus propagieren aus. Wenn Sie Nicht propagieren oder keinen Wert auswählen, werden die Tags nicht propagiert.

      Wenn Sie Ihre eigenen Tags angeben möchten, wählen Sie Tag hinzufügen und geben Sie dann den Schlüssel und Wert für jedes Tag an, das Sie hinzufügen.

      Weitere Informationen zum Markieren von Amazon-EBS-Volumes finden Sie unter Markieren von Amazon-EBS-Volumes.

  14. (Optional) Um Ihren Service leichter identifizieren zu können, erweitern Sie die Tags (Tags) und konfigurieren Sie dann Ihre Tags.

    • [Tag hinzufügen] Wählen Sie Tag hinzufügen und gehen Sie wie folgt vor:

      • Geben Sie bei Key (Schlüssel) den Schlüsselnamen ein.

      • Geben Sie bei Value (Wert) den Wert des Schlüssels ein.

    • [Tag entfernen] Wählen Sie neben dem Tag die Option Remove tag (Tag löschen) aus.

  15. Wählen Sie Aktualisieren.