Skalierung auf Basis von Amazon konfigurieren SQS - Amazon EC2 Auto Scaling

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Skalierung auf Basis von Amazon konfigurieren SQS

In diesem Abschnitt wird beschrieben, wie Sie Ihre Skalierung auf Basis von Amazon Amazon konfigurierenSQS.

Schritt 1: Erstellen Sie eine CloudWatch benutzerdefinierte Metrik

Eine benutzerdefinierte Metrik wird mit einem Metriknamen und Namespace Ihrer Wahl definiert. Namespaces für benutzerdefinierte Metriken können nicht mit AWS/ beginnen. Weitere Informationen zum Veröffentlichen von benutzerdefinierten Metriken finden Sie unter dem Thema Veröffentlichen von benutzerdefinierten Kennzahlen im CloudWatch Amazon-Benutzerhandbuch.

Gehen Sie wie folgt vor, um die benutzerdefinierte Metrik zu erstellen, indem Sie zunächst die Informationen aus Ihrem AWS Konto lesen. Berechnen Sie dann den Rückstand pro Instance-Metrik, wie in einem früheren Abschnitt empfohlen. Veröffentlichen Sie diese Zahl abschließend mit CloudWatch einer Genauigkeit von 1 Minute. Wenn möglich, empfehlen wir dringend, anhand von Metriken mit einer Granularität von 1 Minute zu skalieren, um eine schnellere Reaktion auf Änderungen der Systemauslastung zu gewährleisten.

Um eine CloudWatch benutzerdefinierte Metrik zu erstellen ()AWS CLI
  1. Verwenden Sie den SQS get-queue-attributesBefehl, um die Anzahl der Nachrichten abzurufen, die in der Warteschlange warten (ApproximateNumberOfMessages).

    aws sqs get-queue-attributes --queue-url https://sqs.region.amazonaws.com/123456789/MyQueue \ --attribute-names ApproximateNumberOfMessages
  2. Verwenden Sie den describe-auto-scaling-groupsBefehl, um die laufende Kapazität der Gruppe abzurufen, d. h. die Anzahl der Instanzen im InService Lebenszyklusstatus. Dieser Befehl gibt die Instances einer Auto-Scaling-Gruppe zusammen mit ihren Lebenszyklusstatus zurück.

    aws autoscaling describe-auto-scaling-groups --auto-scaling-group-names my-asg
  3. Berechnen Sie den Rückstand pro Instance, indem Sie die ungefähre Anzahl der Nachrichten, die für den Abruf aus der Warteschlange verfügbar sind, durch die laufende Kapazität der Gruppe dividieren.

  4. Erstellen Sie ein Skript, das jede Minute ausgeführt wird, um den Backlog-Wert pro Instanz abzurufen und ihn in einer CloudWatch benutzerdefinierten Metrik zu veröffentlichen. Beim Veröffentlichen einer benutzerdefinierten Metrik geben Sie den Namen, den Namespace, die Einheit, den Wert und null oder mehr Dimensionen für die Metrik an. Dimensionen bestehen aus einem Dimensionsnamen und einem Dimensionswert.

    Um Ihre benutzerdefinierte Metrik zu veröffentlichen, ersetzen Sie Platzhalterwerte in italics mit Ihrem bevorzugten Metriknamen, dem Wert der Metrik, einem Namespace (sofern er nicht mit "AWS„beginnt) und Dimensionen (optional), und führen Sie dann den folgenden put-metric-dataBefehl aus.

    aws cloudwatch put-metric-data --metric-name MyBacklogPerInstance --namespace MyNamespace \ --unit None --value 20 --dimensions MyOptionalMetricDimensionName=MyOptionalMetricDimensionValue

Nachdem Ihre Anwendung die gewünschte Metrik ausgegeben hat, werden die Daten an CloudWatch gesendet. Die Metrik ist in der CloudWatch Konsole sichtbar. Sie können darauf zugreifen, indem Sie sich bei der anmelden AWS Management Console und zu der CloudWatch Seite navigieren. Anschließend können Sie die Metrik anzeigen, indem Sie zur Seite der Metriken navigieren oder im Suchfeld danach suchen. Informationen zum Anzeigen von Metriken finden Sie unter Verfügbare Metriken anzeigen im CloudWatch Amazon-Benutzerhandbuch.

Schritt 2: Erstellen einer Skalierungsrichtlinie für die Ziel-Nachverfolgung

Die von Ihnen erstellte Metrik kann jetzt zu einer Skalierungsrichtlinie für die Zielnachverfolgung hinzugefügt werden.

So erstellen Sie eine Skalierungsrichtlinie für die Ziel-Nachverfolgung (AWS CLI)
  1. Verwenden Sie den folgenden cat Befehl, um einen Zielwert für Ihre Skalierungsrichtlinie und eine benutzerdefinierte Metrikspezifikation in einer JSON Datei mit dem Namen config.json in Ihrem Home-Verzeichnis zu speichern. Ersetzen Sie jeden user input placeholder mit Ihren eigenen Informationen. Berechnen Sie für den TargetValue die Metrik für den akzeptablen Rückstand pro Instance und geben Sie sie hier ein. Basieren Sie die Berechnung dieser Zahl auf einem normalen Latenzwert und teilen Sie ihn durch die durchschnittliche Zeit, die für die Verarbeitung einer Nachricht benötigt wird, wie in einem vorherigen Abschnitt beschrieben.

    Wenn Sie keine Dimensionen für die Metrik angegeben haben, die Sie in Schritt 1 erstellt haben, nehmen Sie keine Dimensionen in die benutzerdefinierte Metrikspezifikation auf.

    $ cat ~/config.json { "TargetValue":100, "CustomizedMetricSpecification":{ "MetricName":"MyBacklogPerInstance", "Namespace":"MyNamespace", "Dimensions":[ { "Name":"MyOptionalMetricDimensionName", "Value":"MyOptionalMetricDimensionValue" } ], "Statistic":"Average", "Unit":"None" } }
  2. Verwenden Sie den put-scaling-policyBefehl zusammen mit der config.json Datei, die Sie im vorherigen Schritt erstellt haben, um Ihre Skalierungsrichtlinie zu erstellen.

    aws autoscaling put-scaling-policy --policy-name sqs100-target-tracking-scaling-policy \ --auto-scaling-group-name my-asg --policy-type TargetTrackingScaling \ --target-tracking-configuration file://~/config.json

    Dabei werden zwei Alarme erstellt: einer für die Aufwärtsskalierung und einer für die Abwärtsskalierung. Es gibt auch den Amazon-Ressourcennamen (ARN) der Richtlinie zurück CloudWatch, mit der die CloudWatch Skalierung aufgerufen wird, wenn der metrische Schwellenwert überschritten wird.

Schritt 3: Testen Ihrer Skalierungsrichtlinie

Wenn die Einrichtung abgeschlossen ist, überprüfen Sie, ob Ihre Skalierungsrichtlinie funktioniert. Sie können es testen, indem Sie die Anzahl der Nachrichten in Ihrer SQS Warteschlange erhöhen und dann überprüfen, ob Ihre Auto Scaling Scaling-Gruppe eine zusätzliche EC2 Instance gestartet hat. Sie können es auch testen, indem Sie die Anzahl der Nachrichten in Ihrer SQS Warteschlange verringern und dann überprüfen, ob die Auto Scaling Scaling-Gruppe eine EC2 Instance beendet hat.

So testen Sie die Funktion für die horizontale Skalierung nach oben
  1. Folgen Sie den Schritten unter Erstellen einer SQS Amazon-Standardwarteschlange und Senden einer Nachricht oder Erstellen einer SQS FIFO Amazon-Warteschlange und Senden einer Nachricht, um Nachrichten zu Ihrer Warteschlange hinzuzufügen. Stellen Sie sicher, dass Sie die Anzahl der Nachrichten in der Warteschlange so erhöht haben, dass die Metrik für den Rückstand pro Instance den Zielwert überschreitet.

    Es kann einige Minuten dauern, bis Ihre Änderungen den Alarm auslösen.

  2. Verwenden Sie den describe-auto-scaling-groupsBefehl, um zu überprüfen, ob die Gruppe eine Instance gestartet hat.

    aws autoscaling describe-auto-scaling-groups --auto-scaling-group-name my-asg
Um die Funktion der Waage zu testen
  1. Folgen Sie den Schritten unter Nachricht empfangen und löschen (Konsole), um Nachrichten aus der Warteschlange zu löschen. Stellen Sie sicher, dass Sie die Anzahl der Nachrichten in der Warteschlange so verringert haben, dass die Metrik für den Rückstand pro Instance den Zielwert unterschreitet.

    Es kann einige Minuten dauern, bis Ihre Änderungen den Alarm auslösen.

  2. Verwenden Sie den describe-auto-scaling-groupsBefehl, um zu überprüfen, ob die Gruppe eine Instanz beendet hat.

    aws autoscaling describe-auto-scaling-groups --auto-scaling-group-name my-asg