Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
SUS02-BP01 Dynamisches Skalieren der Workload-Infrastruktur
Nutzen Sie die Elastizität der Cloud und skalieren Sie Ihre Infrastruktur dynamisch, um das Angebot an Cloud-Ressourcen an den Bedarf anzupassen und eine Überbereitstellung von Kapazitäten in Ihrer Workload zu vermeiden.
Typische Anti-Muster:
Sie skalieren Ihre Infrastruktur nicht mit der Benutzerlast.
Sie skalieren Ihre Infrastruktur immer manuell.
Sie behalten die erhöhte Kapazität nach dem Hochskalieren bei, anstatt sie wieder herunterzuskalieren.
Vorteile der Nutzung dieser bewährten Methode: Das Konfigurieren und Testen der Workload-Elastizität trägt dazu bei, das Angebot an Cloud-Ressourcen effizient an den Bedarf anzupassen und eine Überbereitstellung von Kapazitäten zu vermeiden. Sie können die Vorteile der Elastizität in der Cloud nutzen, um die Kapazität während und nach Bedarfsspitzen automatisch zu skalieren und so sicherzustellen, dass Sie nur die Menge an Ressourcen nutzen, die für die Erfüllung Ihrer Geschäftsanforderungen erforderlich ist.
Risikostufe, wenn diese bewährte Methode nicht eingeführt wird: Mittel
Implementierungsleitfaden
Die Cloud bietet Ihnen die Flexibilität, Ressourcen dynamisch durch verschiedene Mechanismen zu erweitern oder zu reduzieren, um einem veränderten Bedarf gerecht zu werden. Eine optimale Abstimmung von Angebot und Bedarf führt zu den geringsten Auswirkungen auf die Umgebung für eine Workload.
Der Bedarf kann fest oder variabel sein und erfordert Metriken und Automatisierung, um sicherzustellen, dass die Verwaltung nicht zur Last wird. Anwendungen können vertikal (hoch oder herunter) und/oder horizontal (ab oder auf) skaliert werden. Bei der vertikalen Skalierung wird die Instance-Größe geändert, bei der horizontalen Skalierung die Anzahl von Instances.
Sie können verschiedene Ansätze nutzen, um das Angebot an Ressourcen auf den Bedarf abzustimmen.
-
Zielverfolgungsansatz: Überwachen Sie Ihre Skalierungsmetriken und erhöhen oder verringern Sie die Kapazität automatisch nach Bedarf.
-
Prädiktives Skalieren: Skalieren Sie auf der Grundlage erwarteter täglicher und wöchentlicher Trends.
-
Zeitplanbasierter Ansatz: Legen Sie einen eigenen Skalierungszeitplan auf der Grundlage vorhersehbarer Laständerungen fest.
-
Service-Skalierung: Wählen Sie Services (beispielsweise Serverless) aus, die nativ von Natur aus skalierbar sind oder Auto Scaling als Feature bieten.
Identifizieren Sie Zeiträume mit geringer oder gar keiner Nutzung und skalieren Sie Ressourcen, um überschüssige Kapazitäten zu entfernen und die Effizienz zu verbessern.
Implementierungsschritte
-
Elastizität ermöglicht die Anpassung der verfügbaren Ressourcen an den Bedarf. Instanzen, Container und Funktionen bieten Elastizitätsmechanismen, entweder in Kombination mit automatischer Skalierung oder als Funktion des Dienstes. AWS bietet eine Reihe von Auto-Scaling-Mechanismen, um sicherzustellen, dass Workloads in Zeiten geringer Benutzerlast schnell und einfach herunterskaliert werden können. Hier sind einige Beispiele für Auto-Scaling-Mechanismen:
Auto-Scaling-Mechanismus Verwendung Wird verwendet, um zu überprüfen, ob Ihnen die richtige Anzahl von EC2 Amazon-Instances zur Verfügung steht, um die Benutzerlast für Ihre Anwendung zu bewältigen.
Wird verwendet, um die Ressourcen für einzelne AWS Dienste außerhalb von Amazon automatisch zu skalierenEC2, z. B. Lambda-Funktionen oder Amazon Elastic Container Service (AmazonECS) -Services.
Wird verwendet, um Kubernetes-Cluster automatisch zu skalieren. AWS
-
Skalierung wird häufig im Zusammenhang mit Rechendiensten wie EC2 Amazon-Instances oder AWS Lambda -Funktionen diskutiert. Ziehen Sie die Konfiguration von nicht Daten verarbeitenden Services wie Lese- und Schreibkapazitätseinheiten von Amazon DynamoDB
oder Shards von Amazon Kinesis Data Streams in Betracht, um den Bedarf zu decken. -
Vergewissern Sie sich, dass die Metriken zum Hoch- oder Herunterskalieren für die jeweilige Art der bereitgestellten Workload überprüft werden. Wenn Sie eine Anwendung zur Videotranskodierung einsetzen, wird eine CPU Auslastung von 100% erwartet, was nicht Ihre primäre Messgröße sein sollte. Sie können bei Bedarf eine benutzerdefinierte Metrik
(etwa die Speicherauslastung) für Ihre Skalierungsrichtlinie verwenden. Beachten Sie bei der Auswahl der richtigen Kennzahlen die folgenden Hinweise für AmazonEC2: -
Es muss sich um eine gültige Nutzungsmetrik handeln, die beschreibt, wie stark eine Instance genutzt wird.
-
Der Wert der Metrik muss sich proportional zur Anzahl der Instances in der Auto-Scaling-Gruppe erhöhen oder verringern.
-
-
Verwenden Sie für Ihre Auto-Scaling-Gruppe eine dynamische Skalierung anstelle einer manuellen Skalierung. Außerdem empfiehlt es sich, bei der dynamischen Skalierung Skalierungsrichtlinien zur Zielverfolgung zu verwenden.
-
Vergewissern Sie sich, dass Workload-Bereitstellungen sowohl Hoch- als auch Herunterskalierungsereignisse behandeln können. Erstellen Sie Testszenarien für Herunterskalierungsereignisse, um sich zu vergewissern, dass sich die Workload wie erwartet verhält und die Benutzererfahrung nicht beeinträchtigt wird (etwa durch den Verlust von Sticky Sessions). Sie können den Aktivitätsverlauf verwenden, um eine Skalierungsaktivität für eine Auto-Scaling-Gruppe zu überprüfen.
-
Überprüfen Sie Ihre Workload auf vorhersagbare Muster und skalieren Sie proaktiv, wenn Sie vorhergesagte und geplante Bedarfsänderungen erwarten. Mit der prädiktiven Skalierung können Sie die Notwendigkeit einer Überbereitstellung von Kapazitäten vermeiden. Weitere Informationen finden Sie unter Predictive Scaling with Amazon EC2 Auto Scaling
.
Ressourcen
Zugehörige Dokumente:
-
Prädiktive Skalierung fürEC2, unterstützt durch Machine Learning
-
Analysieren Sie das Nutzerverhalten mit Amazon OpenSearch Service, Amazon Data Firehose und Kibana
-
Überwachen der Datenbanklast mit Performance Insights auf Amazon RDS
-
Einführung der nativen Support für Predictive Scaling mit Amazon EC2 Auto Scaling
-
Vorstellung von Karpenter – Open-Source-Kubernetes-Cluster-Autoscaler mit hoher Leistung
Zugehörige Videos:
-
AWS re:Invent 2023 — Weitere Skalierung AWS für die ersten 10 Millionen Benutzer
-
AWS re:INVENT 2023 — Nachhaltige Architektur: Vergangenheit, Gegenwart und future
-
AWS re:Invent 2022 — Schaffen Sie eine kosten-, energie- und ressourceneffiziente Computerumgebung
-
AWS re:Invent 2022 — Skalierung von Containern von einem Benutzer auf Millionen
-
AWS re:Invent 2023 — Skalierung der FM-Inferenz auf Hunderte von Modellen mit Amazon SageMaker
Zugehörige Beispiele: