Einen Amazon ECS-Service mithilfe der Konsole erstellen - Amazon Elastic Container Service

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Einen Amazon ECS-Service mithilfe der Konsole erstellen

Sie können einen Service mit der Konsole erstellen.

Die folgenden Hinweise gelten für die Verwendung der Konsole:

  • Es gibt zwei Rechenoptionen, die Ihre Aufgaben verteilen.

    • Eine capacity provider strategy (Strategie für Kapazitätsanbieter) veranlasst Amazon ECS, Ihre Aufgaben an einen oder mehrere Kapazitätsanbieter zu verteilen.

    • Ein Starttyp veranlasst Amazon ECS, Ihre Aufgaben entweder direkt auf Fargate oder auf den Amazon-EC2-Instances zu starten, die für Ihre Cluster registriert sind.

  • Aufgabendefinitionen, die den awsvpc-Netzwerkmodus oder Dienste, die für die Verwendung eines Load Balancer konfiguriert sind, verwenden, müssen über eine Netzwerkkonfiguration verfügen. Standardmäßig wählt die Konsole die standardmäßige Amazon VPC zusammen mit allen Subnetzen und der Standardsicherheitsgruppe innerhalb der standardmäßigen Amazon VPC aus.

  • Die Standardstrategie zur Aufgabenplatzierung verteilt Aufgaben gleichmäßig auf die Availability Zones.

  • Wenn Sie den Launch Type (Starttyp) für Ihre Servicebereitstellung verwenden, startet der Service standardmäßig in den Subnetzen in Ihrer Cluster-VPC.

  • Für die Strategie für Kapazitätsanbieter, wählt die Konsole standardmäßig eine Rechenoption aus. Im Folgenden wird die Reihenfolge beschrieben, in der die Konsole einen Standardwert auswählt:

    • Wenn der Cluster eine standardmäßige Kapazitätsanbieterstrategie definiert hat, ist diese ausgewählt.

    • Wenn für Ihren Cluster keine standardmäßige Kapazitätsanbieterstrategie definiert ist, Sie aber die Fargate-Kapazitätsanbieter zum Cluster hinzugefügt haben, wird eine benutzerdefinierte Kapazitätsanbieterstrategie ausgewählt, die den FARGATE Kapazitätsanbieter verwendet.

    • Wenn für Ihren Cluster keine Standardstrategie für Kapazitätsanbieter definiert ist, Sie dem Cluster jedoch einen oder mehrere Auto Scaling Scaling-Gruppenkapazitätsanbieter hinzugefügt haben, ist die Option Benutzerdefiniert (erweitert) verwenden ausgewählt und Sie müssen die Strategie manuell definieren.

    • Wenn in Ihrem Cluster keine Standardstrategie für Kapazitätsanbieter definiert ist und keine Kapazitätsanbieter zum Cluster hinzugefügt wurden, ist der Fargate Starttyp ausgewählt.

  • Bei den Standardoptionen für die Erkennung von Bereitstellungsfehlern wird die Option Amazon ECS Deployment Circuit Breaker zusammen mit der Option Rollback bei Fehlern verwendet.

    Weitere Informationen finden Sie unter So erkennt der Amazon ECS Deployment Circuit Breaker Fehler.

  • Wenn Sie die Bereitstellungsoption Blau/Grün verwenden möchten, legen Sie fest, wie die Anwendungen CodeDeploy verschoben werden. Verfügbar sind die nachfolgend aufgeführten Optionen:

    • CodeDeployDefault.ecs AllAt Once: Verschiebt den gesamten Datenverkehr auf einmal in den aktualisierten Amazon ECS-Container

    • CodeDeploydefault.ecsLinear10 PercentEvery 1Minutes: Verschiebt jede Minute 10 Prozent des Datenverkehrs, bis der gesamte Verkehr verlagert ist.

    • CodeDeploydefault.ecsLinear10 PercentEvery 3Minutes: Verschiebt 10 Prozent des Datenverkehrs alle 3 Minuten, bis der gesamte Verkehr verlagert ist.

    • CodeDeploydefault.ecscanary10Percent5Minutes: Verschiebt 10 Prozent des Datenverkehrs in der ersten Stufe. Die restlichen 90 Prozent werden fünf Minuten später bereitgestellt.

    • CodeDeploydefault.ecscanary10Percent15Minutes: Verschiebt 10 Prozent des Datenverkehrs in der ersten Stufe. Die restlichen 90 Prozent werden 15 Minuten später bereitgestellt.

  • Wenn Sie eine Anwendung mit anderen Anwendungen, die in Amazon ECS laufen, verbinden müssen, bestimmen Sie die Option, die zu Ihrer Architektur passt. Weitere Informationen finden Sie unter Amazon ECS-Services verbinden.

  • Sie müssen AWS CloudFormation or verwenden, um einen Dienst bereitzustellen AWS Command Line Interface , der einen der folgenden Parameter verwendet:

    • Tracking-Richtlinie mit einer benutzerdefinierten Metrik

    • Aktualisierungsdienst — Sie können die awsvpc Netzwerkkonfiguration und den Kulanzzeitraum für die Integritätsprüfung nicht aktualisieren.

    Informationen zum Erstellen eines Dienstes mit dem AWS CLI finden Sie create-servicein der AWS Command Line Interface Referenz.

    Informationen zum Erstellen eines Dienstes mit AWS CloudFormation finden Sie AWS::ECS::Serviceim AWS CloudFormation Benutzerhandbuch unter.

Erstellen Sie schnell einen Service

Mit der Konsole können Sie schnell einen Service erstellen und bereitstellen. Der Service hat die folgenden Konfigurationseinstellungen:

  • Wird in der VPC und in Subnetzen bereitgestellt, die Ihrem Cluster zugeordnet sind

  • Stellt eine Aufgabe bereit

  • Nutzt die laufende Bereitstellung

  • Verwendet die Kapazitätsanbieter-Strategie mit Ihrem Standardkapazitätsanbieter

  • Verwendet den Bereitstellungsschutzschalter, um Fehler zu erkennen, und legt die Option darauf fest, dass die Bereitstellung bei einem Fehler automatisch zurückgesetzt wird

Folgen Sie diesen Schritten, um einen Service mit den Standardparametern bereitzustellen.

So erstellen Sie einen Service (Amazon-ECS-Konsole)
  1. Öffnen Sie die Konsole unter https://console.aws.amazon.com/ecs/v2.

  2. Klicken Sie im Navigationsbereich auf Cluster.

  3. Wählen Sie auf der Seite Cluster den Cluster aus, in dem der Service erstellt werden soll.

  4. Wählen Sie auf der Registerkarte Services die Option Create (Erstellen) aus.

  5. Unter Deployment configuration (Konfiguration der Bereitstellung), geben Sie an, wie Ihre Anwendung bereitgestellt wird.

    1. Für Application type (Anwendungstyp) wählen Sie Service (Service) aus.

    2. Wählen Sie für Aufgabendefinition die Aufgabendefinitionsfamilie und die zu verwendende Version aus.

    3. Wählen Sie für Service name (Servicename) einen Namen für Ihren Service aus.

    4. Geben Sie für Desired tasks (Gewünschte Aufgaben) die Anzahl der Aufgaben an, die im Service gestartet und aufrecht erhalten werden sollen.

  6. (Optional) Um Ihren Service und Ihre Aufgaben besser identifizieren zu können, erweitern Sie den Bereich Tags (Tags) und konfigurieren Sie dann Ihre Tags.

    Damit Amazon ECS automatisch alle neu gestarteten Aufgaben mit dem Clusternamen und den Task-Definition-Tags versieht, wählen Sie Turn on Amazon ECS managed tags (Mit Amazon ECS verwaltete Tags aktivieren) und anschließend Task definitions (Aufgabendefinitionen) aus.

    Damit Amazon ECS automatisch alle neu gestarteten Aufgaben mit dem Clusternamen und den Service-Tags versieht, wählen Sie Turn on Amazon ECS managed tags (Mit Amazon ECS verwaltete Tags aktivieren) und anschließend Service aus.

    Hinzufügen oder Entfernen eines Tag.

    • [Ein Tag hinzufügen] Wählen Sie Add tag (Tag hinzufügen) und führen Sie dann das Folgende aus:

      • Geben Sie bei Key (Schlüssel) den Schlüsselnamen ein.

      • Geben Sie bei Value (Wert) den Wert des Schlüssels ein.

    • [Tag entfernen] Wählen Sie neben dem Tag die Option Remove tag (Tag löschen) aus.

Erstellen eines Services mit definierten Parametern

Gehen Sie folgendermaßen vor, um einen Service mithilfe definierter Parameter zu erstellen.

So erstellen Sie einen Service (Amazon-ECS-Konsole)
  1. Öffnen Sie die Konsole unter https://console.aws.amazon.com/ecs/v2.

  2. Bestimmen Sie die Ressource, von der aus Sie den Service starten.

    So starten Sie einen Service von Schritte

    Cluster

    1. Wählen Sie auf der Seite Cluster den Cluster aus, den Sie im Service erstellen möchten.

    2. Wählen Sie auf der Registerkarte Services die Option Create (Erstellen) aus.

    Starttyp
    1. Wählen Sie auf der Seite mit den Aufgabendefinitionen das Optionsfeld neben der Aufgabendefinition aus.

    2. Wählen Sie im Menü Bereitstellen die Option Dienst erstellen aus.

  3. (Optional) Wählen Sie aus, wie Ihre geplante Aufgaben auf Ihre Cluster-Infrastruktur verteilt werden. Erweitern Sie Datenverarbeitungskonfiguration, und wählen Sie dann Ihre Option.

    Verteilungsmethode Schritte

    Kapazitätsanbieterstrategie

    1. Wählen Sie unter Rechenoptionen die Option Kapazitätsanbieterstrategie aus.

    2. Wählen Sie eine Strategie aus:

      • Um die standardmäßige Kapazitätsanbieter-Strategie des Clusters zu verwenden, wählen Sie Use cluster default (Cluster-Standard verwenden).

      • Wenn Ihr Cluster nicht über eine Standard-Kapazitätsanbieter-Strategie verfügt oder Sie eine benutzerdefinierte Strategie verwenden möchten, wählen Sie Benutzerdefiniert verwenden, Kapazitätsanbieter-Strategie hinzufügen und definieren dann Ihre benutzerdefinierte Kapazitätsanbieter-Strategie, indem Sie eine Basis, einen Kapazitätsanbieter und ein Gewicht angeben.

    Anmerkung

    Damit Kapazitätsanbieter in einer Strategie verwendet werden kann, muss er dem Cluster zugeordnet sein.

    Starttyp
    1. Wählen Sie im Bereich Compute options (Datenverarbeitungs-Optionen) die Option Launch type (Starttyp) aus.

    2. Wählen Sie unter Launch type (Starttyp) einen Starttyp aus.

    3. (Optional) Wenn der Fargate Starttyp angegeben ist, geben Sie für Plattformversion die zu verwendende Plattformversion an. Ist keine Plattformversion angegeben, wird die Plattformversion LATEST verwendet.

  4. Um anzugeben, wie Ihr Service bereitgestellt wird, gehen Sie zum Abschnitt Bereitstellungskonfiguration und wählen Sie dann Ihre Optionen aus.

    1. Belassen Sie für Anwendungstyp die Auswahl auf Service.

    2. Wählen Sie für Task definition (Aufgabendefinition) und Revision (Revision) die Aufgabendefinitionsfamilie und die zu verwendende Version aus.

    3. Wählen Sie für Servicename, einen Namen für Ihren Service aus.

    4. Für Service type (Service-Typ) wählen Sie die Strategie für die Serviceplanung.

      • Wählen Sie Daemon (Daemon), damit der Scheduler genau eine Aufgabe auf jede aktiven Container-Instance verteilt, die alle Bedingungen für die Aufgabenplatzierung erfüllt.

      • Damit der Scheduler die gewünschte Anzahl von Aufgaben in Ihrem Cluster platziert und verwaltet, wählen Sie Replica (Replikat).

    5. Wenn Sie Replica (Replikat) gewählt haben, geben Sie bei Desired tasks (Gewünschte Aufgaben) die Anzahl der Aufgaben ein, die im Service gestartet und gepflegt werden sollen.

    6. Ermitteln Sie den Bereitstellungstyp für Ihren Service. Erweitern Sie Bereitstellungsoptionen und geben Sie dann die folgenden Parameter an.

      Deployment type (Bereitstellungstyp) Schritte
      Laufende Aktualisierung
      1. Für Min running tasks (Min. laufende Aufgaben) geben Sie die untere Grenze für die Anzahl der Aufgaben im Service an, die während einer Bereitstellung in diesem RUNNING-Zustand verbleiben müssen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (aufgerundet auf die nächste ganze Zahl). Weitere Informationen finden Sie unter Bereitstellungs-Konfiguration.

      2. Geben Sie für Max. laufende Aufgaben, die Obergrenze für die Anzahl der Aufgaben im Service ein, die sich während einer Bereitstellung im Status RUNNING oder PENDING befinden dürfen, und zwar als Prozentsatz der gewünschten Anzahl von Aufgaben (abgerundet auf die nächste Ganzzahl).

      Blau/Grün-Bereitstellung
      1. Wählen Sie unter Bereitstellungskonfiguration aus, wie CodeDeploy der Produktionsdatenverkehr während einer Bereitstellung an Ihren Ersatz-Tasksatz weitergeleitet wird.

      2. Wählen Sie unter Servicerolle für die IAM-Rolle aus CodeDeploy, die der Dienst verwendet, um API-Anfragen an autorisierte AWS-Services Personen zu richten.

    7. Um zu konfigurieren, wie Amazon ECS Bereitstellungsfehler erkennt und behandelt, erweitern Sie Erkennung von Bereitstellungsfehlern, und wählen Sie dann Ihre Optionen.

      1. Um eine Bereitstellung anzuhalten, wenn die Aufgaben nicht gestartet werden können, wählen Sie Use the Amazon ECS deployment circuit breaker (Verwenden des Amazon-ECS-Bereitstellungsschutzschalters).

        Damit die Software die Bereitstellung automatisch auf den Status der letzten abgeschlossenen Bereitstellung zurücksetzt, wenn der Bereitstellungsschutzschalter die Bereitstellung in den Status „Fehlgeschlagen“ versetzt, wählen Sie Rollback bei Fehlern.

      2. Um eine Bereitstellung auf der Grundlage von Anwendungsmetriken zu beenden, wählen Sie CloudWatch Alarm (en) verwenden aus. Wählen Sie dann unter CloudWatch Alarmname die Alarme aus. Um einen neuen Alarm zu erstellen, gehen Sie zur CloudWatch Konsole.

        Damit die Software die Bereitstellung automatisch auf den Status der letzten abgeschlossenen Bereitstellung zurücksetzt, wenn ein CloudWatch Alarm die Bereitstellung in einen fehlgeschlagenen Zustand versetzt, wählen Sie Rollback bei Fehlern.

  5. (Optional) Um Service Connect zu verwenden, wählen Sie Turn on Service Connect (Service Connect aktivieren) aus, und geben Sie dann Folgendes an:

    1. Geben Sie unter Service Connect configuration (Service-Connect-Konfiguration) den Client-Modus an.

      • Wenn Ihr Dienst eine Netzwerk-Client-Anwendung ausführt, die nur eine Verbindung zu anderen Diensten im Namespace herstellen muss, wählen Sie Nur Client-Seite.

      • Wenn Ihr Service eine Netzwerk- oder Webservice-Anwendung ausführt und Endpunkte für diesen Service bereitstellen muss und eine Verbindung zu anderen Services im Namespace herstellt, wählen Sie Client and server (Client und Server) aus.

    2. Um einen Namespace zu verwenden, der nicht der Standard-Cluster-Namespace ist, wählen Sie für Namespace den Service-Namespace aus.

    3. (Optional) Wählen Sie die Option Use log collection (Protokollerfassung verwenden), um eine Protokollkonfiguration anzugeben. Für jeden verfügbaren Protokolltreiber gibt es Protokolltreiberoptionen, die angegeben werden müssen. Die Standardoption sendet Container-Logs an CloudWatch Logs. Die anderen Protokolltreiberoptionen werden mit konfiguriert AWS FireLens. Weitere Informationen finden Sie unter Amazon ECS-Protokolle an einen AWS Service senden oder AWS Partner.

      Im Folgenden wird jedes Container-Protokollziel ausführlicher beschrieben.

      • Amazon CloudWatch — Konfigurieren Sie die Aufgabe, um Container-Logs an CloudWatch Logs zu senden. Es werden die standardmäßigen Protokolltreiberoptionen bereitgestellt, mit denen in Ihrem Namen eine CloudWatch Protokollgruppe erstellt wird. Um einen anderen Protokollgruppen-Namen anzugeben, ändern Sie die Werte der Treiberoption.

      • Amazon Data Firehose — Konfigurieren Sie die Aufgabe, um Container-Protokolle an Firehose zu senden. Es werden die standardmäßigen Protokolltreiberoptionen bereitgestellt, die Protokolle an einen Firehose-Lieferstream senden. Um einen anderen Namen für den Bereitstellungsdatenstrom anzugeben, ändern Sie die Werte der Treiberoption.

      • Amazon Kinesis Data Streams — Konfigurieren Sie die Aufgabe so, dass Container-Logs an Kinesis Data Streams gesendet werden. Es werden die standardmäßigen Protokolltreiberoptionen bereitgestellt, mit denen Protokolle an einen Kinesis Data Streams Streams-Stream gesendet werden. Um einen anderen Datenstrom-Namen anzugeben, ändern Sie die Werte der Treiberoption.

      • Amazon OpenSearch Service — Konfigurieren Sie die Aufgabe, um Container-Logs an eine OpenSearch Service-Domain zu senden. Die Optionen für den Protokolltreiber müssen bereitgestellt werden.

      • Amazon S3 — Konfigurieren Sie die Aufgabe, um Container-Logs an einen Amazon S3 S3-Bucket zu senden. Die Standardoptionen für den Protokolltreiber sind verfügbar, Sie müssen jedoch einen gültigen Amazon S3 S3-Bucket-Namen angeben.

  6. (Optional) Um Service Discovery zu verwenden, wählen Sie Service Discovery verwenden aus und geben Sie dann Folgendes an.

    1. Um einen neuen Namespace zu verwenden, wählen Sie unter Namespace konfigurieren die Option Neuen Namespace erstellen aus, und geben Sie dann einen Namespace-Namen und eine Beschreibung ein. Um einen vorhandenen Namespace zu verwenden, wählen Sie Select an existing namespace und wählen Sie dann den Namespace aus, den Sie verwenden möchten.

    2. Geben Sie Informationen zum Service Discovery-Dienst an, z. B. den Namen und die Beschreibung des Dienstes.

    3. Um Amazon ECS regelmäßige Zustandsprüfungen auf Container-Ebene durchführen zu lassen, wählen Sie Amazon ECS Task Health Propagation aktivieren aus.

    4. Wählen Sie für DNS record type (DNS-Datensatztyp) den DNS-Datensatztyp aus, der für Ihren Service erstellt werden soll. Amazon ECS Service Discovery unterstützt nur A - und SRV-Datensätze, abhängig vom Netzwerkmodus, den Ihre Aufgabendefinition spezifiziert. Informationen über diese Datensatztypen finden Sie unter Unterstützte DNS-Datensatztypen im Amazon Route 53-Entwicklerhandbuch.

      • Wenn die von Ihrer Serviceaufgabe angegebene Aufgabendefinition als Netzwerkmodus bridge oder host verwendet, werden nur Datensätze vom Typ SRV unterstützt. Wählen Sie eine Kombination aus Containername und -Port aus, die dem Datensatz zugeordnet werden soll.

      • Wenn die Aufgabendefinition, die Ihre Serviceaufgabe angibt, den awsvpc-Netzwerkmodus verwendet, wählen Sie entweder den Datensatztyp A oder SRV. Wenn Sie A wählen, fahren Sie mit dem nächsten Schritt fort. Wenn Sie SRV wählen, geben Sie entweder den Port an, unter dem der Service gefunden werden kann, oder eine Kombination aus Containername und Port, die dem Datensatz zugeordnet werden soll.

      Geben Sie für TTL die Zeit in Sekunden ein, für die ein Datensatz von DNS-Resolvern und Webbrowsern zwischengespeichert wird.

  7. (Optional) Um einen Load Balancer für Ihren Service zu konfigurieren, erweitern Sie Load balancing (Load Balancing).

    Wählen Sie den Load Balancer aus.

    So verwenden Sie diesen Load Balancer Vorgehensweise

    Application Load Balancer

    1. Wählen Sie für Load Balancer-Typ Application Load Balancer aus.

    2. Wählen Sie Erstellen eines neuen Load Balancers, um einen neuen Application Load Balancer zu erstellen, oder Verwenden eines vorhandenen Load Balancers um einen vorhandenen Application Load Balancer auszuwählen.

    3. Geben Sie für Load balancer name (Name des Load Balancers) einen eindeutigen Namen ein.

    4. Für Choose container to load balance (Container für den Lastausgleich wählen) wählen Sie den Container aus, der den Service hostet.

    5. Geben Sie für Listener (Zuhörer) einen Port und ein Protokoll für den Application Load Balancer an, an dem der Application Load Balancer auf Verbindungsanfragen lauschen soll. Standardmäßig wird der Load Balancer so konfiguriert, dass er Port 80 und HTTP verwendet.

    6. Geben Sie für Target group name (Name der Zielgruppe) einen Namen und ein Protokoll für die Zielgruppe ein, an die der Application Load Balancer Anforderungen weiterleitet. Standardmäßig leitet die Zielgruppe Anforderungen an den ersten Container weiter, der in Ihrer Aufgabendefinition definiert ist.

    7. Geben Sie unter Verzögerung bei der Registrierung die Anzahl der Sekunden ein, auf die der Load Balancer den Zielstatus ändern soll. UNUSED Standardmäßig ist ein Zeitraum von 300 Sekunden festgelegt.

    8. Geben Sie für Health check path (Pfad für die Zustandsprüfung) einen Pfad an, der in Ihrem Container vorhanden ist, an den der Application Load Balancer regelmäßig Anforderungen senden soll, um den Verbindungszustand zwischen dem Application Load Balancer und dem Container zu überprüfen. Der Standard ist das Root-Verzeichnis (/).

    9. Geben Sie für Health check grace period (Wartefrist der Zustandsprüfungs) die Zeitspanne (in Sekunden) ein, die der Serviceplaner ungesunde Zustandsprüfungen des Ziels des Elastic Load Balancing ignorieren soll.

    Network Load Balancer
    1. Wählen Sie für Load balancer type (Load-Balancer-Typ) Network Load Balancer (Network Load Balancer) aus.

    2. Wählen Sie für Load Balancer (Load Balancer) einen vorhandenen Network Load Balancer.

    3. Für Choose container to load balance (Container für den Lastausgleich wählen) wählen Sie den Container aus, der den Service hostet.

    4. Geben Sie unter Target group name (Name der Zielgruppe) einen Namen und ein Protokoll für die Zielgruppe ein, an die der Network Load Balancer Anfragen weiterleitet. Standardmäßig leitet die Zielgruppe Anforderungen an den ersten Container weiter, der in Ihrer Aufgabendefinition definiert ist.

    5. Geben Sie für Verzögerung bei der Registrierung die Anzahl der Sekunden ein, auf die der Load Balancer den Zielstatus ändern soll. UNUSED Standardmäßig ist ein Zeitraum von 300 Sekunden festgelegt.

    6. Geben Sie für Health check path (Pfad für die Zustandsprüfung) einen vorhandenen Pfad innerhalb Ihres Containers ein, an den der Network Load Balancer regelmäßig Anfragen sendet, um den Verbindungszustand zwischen dem Application Load Balancer und dem Container zu überprüfen. Der Standard ist das Root-Verzeichnis (/).

    7. Geben Sie für Health check grace period (Wartefrist der Zustandsprüfungs) die Zeitspanne (in Sekunden) ein, die der Serviceplaner ungesunde Zustandsprüfungen des Ziels des Elastic Load Balancing ignorieren soll.

  8. (Optional) Um Service Auto Scaling zu konfigurieren, erweitern Sie Service Auto Scaling und geben Sie dann die folgenden Parameter an.

    1. Um das Auto Scaling der Services zu verwenden, wählen Sie Auto Scaling des Services.

    2. Geben Sie für Mindestanzahl von Aufgaben die Untergrenze der Anzahl der Aufgaben ein, die Service Auto Scaling verwenden soll. Die gewünschte Anzahl wird diese Anzahl nicht unterschreiten.

    3. Geben Sie für Maximale Anzahl von Aufgaben die Obergrenze für die Anzahl der Aufgaben ein, die Service Auto Scaling verwenden soll. Die gewünschte Anzahl wird diese Anzahl nicht überschreiten.

    4. Wählen Sie den Richtlinien-Typ aus. Wählen Sie unter Skalierungsrichtlinientyp eine der folgenden Optionen aus.

      Zur Verwendung dieser Richtlinie … Vorgehensweise

      Zielverfolgung

      1. Wählen Sie für Scaling policy type (Typ der Skalierungsrichtlinie) Target tracking (Ziel-Nachverfolgung) aus.

      2. Geben Sie unter Richtlinienname, einen Namen für diese Richtlinie ein.

      3. Für ECS-Service-Metrik, wählen Sie eine der folgenden Metriken aus.

        • ServiceAverageECS-CPUUtilization — Durchschnittliche CPU-Auslastung des Dienstes.

        • ECS ServiceAverage MemoryUtilization — Durchschnittliche Speicherauslastung des Dienstes.

        • ALB RequestCount PerTarget — Anzahl der abgeschlossenen Anfragen pro Ziel in einer Application Load Balancer Balancer-Zielgruppe.

      4. Für Zielwert, geben Sie den Wert ein, den der Service für die ausgewählte Metrik beibehält.

      5. Geben Sie für Scale-Out-Cooldown-Periode die Zeit in Sekunden ein, die nach einer Scale-Out-Aktivität (Aufgaben hinzufügen) verstrichen sein muss, bevor eine weitere Scale-Out-Aktivität gestartet werden kann.

      6. Geben Sie für Scale-in-Abklingzeit die Zeit in Sekunden ein, die nach einer Scale-In-Aktivität (Aufgaben entfernen) vergehen muss, bevor eine weitere Scale-In-Aktivität beginnen kann.

      7. Um zu verhindern, dass die Richtlinie eine Abskalierungsaktivität ausführt, wählen Sie Turn off scale-in (Abskalierung ausschalten).

      8. • (Optional) Wählen Sie Scale-In deaktivieren aus, wenn Sie möchten, dass Ihre Skalierungsrichtlinie bei erhöhtem Traffic skaliert wird, sie aber nicht bei sinkendem Traffic skaliert werden muss.

      Schrittweise Skalierung
      1. Wählen Sie für Scaling policy type (Typ der Skalierungsrichtlinie) Step scaling (Schrittweise Skalierung) aus.

      2. Geben Sie unter Richtlinienname den Namen für diese Richtlinie ein.

      3. Geben Sie unter Alarm name (Alarmname) einen eindeutigen Namen für den Alarm ein.

      4. Wählen Sie für die Amazon-ECS-Service-Metrik die Metrik, die für den Alarm verwendet werden soll.

      5. Wählen Sie für Statistik die Alarmstatistik aus.

      6. Wählen Sie unter Zeitraum den Zeitraum für den Alarm aus.

      7. Wählen Sie unter Alarmzustand aus, wie die ausgewählte Metrik mit dem definierten Schwellenwert verglichen werden soll.

      8. Geben Sie unter Schwellenwert für den Vergleich von Metriken und Auswertungszeitraum für die Auslösung des Alarms den Schwellenwert für den Alarm ein und wie lange der Schwellenwert ausgewertet werden soll.

      9. Führen Sie unter Skalierungsaktionen die folgenden Schritte aus:

        • Wählen Sie unter Aktion aus, ob Sie eine bestimmte Anzahl für Ihren Service hinzufügen, entfernen oder festlegen möchten.

        • Wenn Sie Aufgaben hinzufügen oder entfernen möchten, geben Sie unter Wert die Anzahl der Aufgaben (oder den Prozentsatz der vorhandenen Aufgaben) ein, die hinzugefügt oder entfernt werden sollen, wenn die Skalierungsaktion initiiert wird. Wenn Sie die gewünschte Anzahl festlegen möchten, geben Sie die Anzahl der Aufgaben ein. Wählen Sie unter Typ aus, ob der Wert eine Ganzzahl oder ein Prozentwert der vorhandenen gewünschten Anzahl ist.

        • Geben Sie für Untergrenze und Obergrenze die Untergrenze und Obergrenze der schrittweisen Skalierungsanpassung ein. Standardmäßig ist die untere Grenze für eine Hinzufügerichtlinie die Alarmschwelle und die obere Grenze ist positiv (+) unendlich. Standardmäßig ist die obere Grenze für eine Entfernerichtlinie die Alarmschwelle und die untere Grenze ist negativ (-) unendlich.

        • (Optional) Fügen Sie zusätzliche Skalierungsoptionen hinzu. Wählen Sie Neue Skalierungsaktion hinzufügen aus, und wiederholen Sie dann die Schritte zur Skalierungsaktion.

        • Geben Sie unter Abklingzeit die Zeit in Sekunden ein, nach der gewartet werden soll, bis eine vorherige Skalierungsaktivität wirksam wird. Bei einer Hinzufügen-Richtlinie ist dies die Zeit nach einer Scale-Out-Aktivität, in der die Skalierungsrichtlinie Scale-In-Aktivitäten blockiert und begrenzt, wie viele Aufgaben gleichzeitig skaliert werden können. Bei einer Entfernungsrichtlinie ist dies die Zeit nach einer Scale-In-Aktivität, die abgeschlossen sein muss, bevor eine weitere Scale-In-Aktivität beginnen kann.

  9. (Optional) Um eine andere als die standardmäßige Strategie zur Platzierung von Aufgaben zu verwenden, erweitern Sie Task Placement (Platzierung von Aufgaben) und wählen Sie aus den folgenden Optionen aus.

    Weitere Informationen finden Sie unter Wie Amazon ECS Aufgaben auf Container-Instances platziert.

    • AZ Balanced Spread — Verteilen Sie Aufgaben auf Availability Zones und auf Container-Instances in der Availability Zone.

    • AZ Balanced BinPack — Verteilen Sie Aufgaben auf Availability Zones und auf Container-Instances mit dem geringsten verfügbaren Speicher.

    • BinPack— Verteilen Sie Aufgaben auf der Grundlage der geringsten verfügbaren CPU- oder Speichermenge.

    • Eine Aufgabe pro Host — Platzieren Sie maximal eine Aufgabe aus dem Service auf jeder Container-Instance.

    • Benutzerdefiniert — Definieren Sie Ihre eigene Strategie zur Aufgabenverteilung.

    Wenn Sie Custom (Benutzerdefiniert) wählen, definieren Sie den Algorithmus für das Platzieren von Aufgaben und die Regeln, die bei der Aufgabenplatzierung berücksichtigt werden.

    • Unter Strategy (Strategie), für Type (Typ) und Field (Feld), wählen Sie den Algorithmus und die Entität aus, die für den Algorithmus verwendet werden sollen.

      Sie können maximal 5 Strategien angeben.

    • Unter Einschränkung, für Typ und Ausdruck, wählen Sie die Regel und das Attribut für die Einschränkung aus.

      Um beispielsweise die Einschränkung festzulegen, Aufgaben auf T2-Instances zu platzieren, geben Sie für Expression (Ausdruck) attribute:ecs.instance-type =~ t2.* ein.

      Sie können maximal 10 Einschränkungen angeben.

  10. Wenn Ihre Aufgabendefinition awsvpc-Netzwerkmodus nutzt, erweitern Sie Networking (Netzwerk). Führen Sie die folgenden Schritte aus, um eine benutzerdefinierte Konfiguration anzugeben.

    1. Wählen Sie für VPC die VPC aus, die Sie verwenden möchten.

    2. Wählen Sie für Subnets (Subnetze) ein oder mehrere Subnetze in der VPC aus, die der Aufgaben-Scheduler bei der Platzierung Ihrer Aufgaben berücksichtigen soll.

      Wichtig

      Für den Netzwerkmodusawsvpc werden nur private Subnetze unterstützt. Aufgaben erhalten keine öffentlichen IP-Adressen. Daher ist ein NAT-Gateway für ausgehenden Internet-Zugriff erforderlich und eingehender Internetdatenverkehr wird über einen Load Balancer weitergeleitet.

    3. Für die VPC-Sicherheitsgruppe können Sie entweder eine vorhandene Sicherheitsgruppe auswählen oder eine neue erstellen. Um eine vorhandene Sicherheitsgruppe zu verwenden, wählen Sie die Sicherheitsgruppe aus und fahren Sie mit dem nächsten Schritt fort. Um eine neue Sicherheitsgruppe zu erstellen, wählen Sie Create a new security group. Sie müssen einen Sicherheitsgruppennamen und eine Beschreibung angeben und dann eine oder mehrere eingehende Regeln für die Sicherheitsgruppe hinzufügen.

  11. Wenn Ihre Aufgabe ein Datenvolume verwendet, das mit der Konfiguration bei der Bereitstellung kompatibel ist, können Sie das Volume konfigurieren, indem Sie Volume erweitern.

    Der Datenträgername und der Volumetyp werden konfiguriert, wenn Sie eine Revision der Aufgabendefinition erstellen, und können beim Erstellen eines Dienstes nicht geändert werden. Um den Namen und den Typ des Volumes zu aktualisieren, müssen Sie eine neue Version der Aufgabendefinition erstellen und mithilfe der neuen Version einen Dienst erstellen.

    Um diesen Volumetyp zu konfigurieren Vorgehensweise

    Amazon EBS

    1. Wählen Sie unter EBS-Volumetyp den Typ des EBS-Volumes aus, den Sie Ihrer Aufgabe zuordnen möchten.

    2. Geben Sie für Größe (GiB) einen gültigen Wert für die Datenträgergröße in Gibibyte (GiB) ein. Sie können eine Volumengröße von mindestens 1 GiB und eine maximale Volumengröße von 16.384 GiB angeben. Dieser Wert ist erforderlich, sofern Sie keine Snapshot-ID angeben.

    3. Geben Sie für IOPS die maximale Anzahl von Eingabe-/Ausgabevorgängen (IOPS) ein, die das Volume bereitstellen soll. Dieser Wert ist nur für die Volumetypen io1io2, und konfigurierbar. gp3

    4. Geben Sie für Durchsatz (MIB/s) den Durchsatz in Mebibyte pro Sekunde (MiBpsoder MIB/s) ein, den das Volume bereitstellen soll. Dieser Wert ist nur für den Volumetyp konfigurierbar. gp3

    5. Wählen Sie für Snapshot-ID einen vorhandenen Amazon EBS-Volume-Snapshot aus oder geben Sie den ARN eines Snapshots ein, wenn Sie ein Volume aus einem Snapshot erstellen möchten. Sie können auch ein neues, leeres Volume erstellen, indem Sie keine Snapshot-ID auswählen oder eingeben.

    6. Wählen Sie unter Dateisystemtyp den Typ des Dateisystems aus, das für das Speichern und Abrufen von Daten auf dem Volume verwendet werden soll. Sie können entweder den Betriebssystemstandard oder einen bestimmten Dateisystemtyp wählen. Die Standardeinstellung für Linux istXFS. Für Volumes, die aus einem Snapshot erstellt wurden, müssen Sie denselben Dateisystemtyp angeben, den das Volume bei der Erstellung des Snapshots verwendet hat. Wenn der Dateisystemtyp nicht übereinstimmt, kann die Aufgabe nicht gestartet werden.

    7. Wählen Sie für die Infrastrukturrolle eine IAM-Rolle mit den erforderlichen Berechtigungen, die es Amazon ECS ermöglichen, Amazon EBS-Volumes für Aufgaben zu verwalten. Sie können die AmazonECSInfrastructureRolePolicyForVolumes verwaltete Richtlinie an die Rolle anhängen, oder Sie können die Richtlinie als Leitfaden verwenden, um eine eigene Richtlinie mit Berechtigungen zu erstellen und anzuhängen, die Ihren spezifischen Anforderungen entsprechen. Weitere Informationen zu den erforderlichen Berechtigungen finden Sie unter IAM-Rolle für die Amazon ECS-Infrastruktur.

    8. Wählen Sie unter Verschlüsselung die Option Standard, wenn Sie die Amazon EBS-Verschlüsselung standardmäßig verwenden möchten. Wenn für Ihr Konto standardmäßig Verschlüsselung konfiguriert ist, wird das Volume mit dem Schlüssel AWS Key Management Service (AWS KMS) verschlüsselt, der in der Einstellung angegeben ist. Wenn Sie Standard wählen und die Amazon EBS-Standardverschlüsselung nicht aktiviert ist, wird das Volume unverschlüsselt.

      Wenn Sie Benutzerdefiniert wählen, können Sie eine Option Ihrer Wahl für AWS KMS key die Volumenverschlüsselung angeben.

      Wenn Sie „Keine“ wählen, wird das Volume unverschlüsselt, es sei denn, Sie haben die Verschlüsselung standardmäßig konfiguriert oder Sie erstellen ein Volume aus einem verschlüsselten Snapshot.

    9. Wenn Sie Benutzerdefiniert für Verschlüsselung ausgewählt haben, müssen Sie angeben AWS KMS key , welche Sie verwenden möchten. Wählen Sie für KMS-Schlüssel einen Schlüssel-ARN aus AWS KMS key oder geben Sie einen ein. Wenn Sie Ihr Volume mithilfe eines symmetrischen, vom Kunden verwalteten Schlüssels verschlüsseln möchten, stellen Sie sicher, dass Sie in Ihrer AWS KMS key Richtlinie über die richtigen Berechtigungen verfügen. Weitere Informationen finden Sie unter Datenverschlüsselung für Amazon EBS-Volumes.

    10. (Optional) Unter Tags können Sie Ihrem Amazon EBS-Volume Tags hinzufügen, indem Sie entweder Tags aus der Aufgabendefinition oder dem Service weitergeben oder indem Sie Ihre eigenen Tags angeben.

      Wenn Sie Tags aus der Aufgabendefinition weitergeben möchten, wählen Sie Aufgabendefinition für Tags weitergeben aus. Wenn Sie Tags aus dem Service weitergeben möchten, wählen Sie Service für die Weitergabe von Tags aus. Wenn Sie Nicht weitergeben oder wenn Sie keinen Wert auswählen, werden die Tags nicht weitergegeben.

      Wenn Sie Ihre eigenen Tags angeben möchten, wählen Sie Tag hinzufügen und geben Sie dann den Schlüssel und den Wert für jedes Tag ein, das Sie hinzufügen.

      Weitere Informationen zum Taggen von Amazon EBS-Volumes finden Sie unter Tagging Amazon EBS-Volumes.

  12. (Optional) Um Ihren Service und Ihre Aufgaben besser identifizieren zu können, erweitern Sie den Bereich Tags (Tags) und konfigurieren Sie dann Ihre Tags.

    Damit Amazon ECS alle neu gestarteten Aufgaben automatisch mit Tags für den Clusternamen und den Aufgabendefinitions-Tags versieht, wählen Sie Verwaltete Amazon-ECS-Tags einschalten und dann für Tags verbreiten von die Option Aufgabendefinitionen.

    Damit Amazon ECS alle neu gestarteten Aufgaben automatisch mit Tags für den Clustername und die Service-Tags versieht, wählen Sie Verwaltete Amazon-ECS-Tags einschalten und dann für Tags verbreiten von die Option Service.

    Hinzufügen oder Entfernen eines Tag.

    • [Ein Tag hinzufügen] Wählen Sie Add tag (Tag hinzufügen) und führen Sie dann das Folgende aus:

      • Geben Sie bei Key (Schlüssel) den Schlüsselnamen ein.

      • Geben Sie bei Value (Wert) den Wert des Schlüssels ein.

    • [Tag entfernen] Wählen Sie neben dem Tag die Option Remove tag (Tag löschen) aus.