PERF04-BP06 Auswählen des Workload-Standortes entsprechend den Netzwerkanforderungen
Evaluieren Sie Optionen für die Platzierung von Ressourcen, um die Latenz im Netzwerk zu verringern und den Durchsatz zu verbessern und so ein optimales Benutzererlebnis durch kürzere Seitenlade- und Datentransferzeiten zu gewährleisten.
Typische Anti-Muster:
-
Sie konsolidieren alle Workload-Ressourcen an einem geografischen Standort.
-
Sie haben sich für die Region entschieden, die Ihrem Standort, aber nicht dem Workload-Endbenutzer, am nächsten liegt.
Vorteile der Nutzung dieser bewährten Methode: Die Benutzererfahrung wird stark von der Latenz zwischen dem Benutzer und Ihrer Anwendung beeinflusst. Durch die Verwendung geeigneter AWS-Regionen und des privaten globalen AWS-Netzwerks können Sie die Latenz reduzieren und Remote-Benutzern ein besseres Erlebnis bieten.
Risikostufe bei fehlender Befolgung dieser bewährten Methode: Mittel
Implementierungsleitfaden
Ressourcen, wie Amazon-EC2-Instances, werden in Availability Zones innerhalb AWS-Regionen
Amazon EC2 verfügt über Platzierungsgruppen für das Netzwerk. Eine Platzierungsgruppe ist eine logische Gruppierung von Instances, um die Latenz zu verringern. Die Verwendung von Platzierungsgruppen mit unterstützten Instance-Typen und einem Elastic Network Adapter (ENA) ermöglicht die Verarbeitung von Workloads in einem Netzwerk mit 25 Gbit/s, reduziertem Jitter und geringer Latenz. Platzierungsgruppen werden für Workloads empfohlen, für die eine niedrige Netzwerklatenz bzw. ein hoher Durchsatz von Vorteil sind.
Latenzempfindliche Dienste werden an Edge-Standorten über ein globales AWS-Netzwerk bereitgestellt, z. B. Amazon CloudFront
Verwenden Sie Edge-Services, um die Latenz zu reduzieren und das Caching von Inhalten zu ermöglichen. Konfigurieren Sie die Cache-Steuerung für DNS und HTTP/HTTPS richtig, um aus diesen Ansätzen den größtmöglichen Nutzen zu ziehen.
Implementierungsschritte
-
Erfassen Sie Informationen über den an den Netzwerkschnittstellen ein- und ausgehenden IP-Datenverkehr.
-
Analysieren Sie die Netzwerkzugriffsmuster in Ihrer Workload, um zu ermitteln, wie die Benutzer Ihre Anwendung verwenden.
-
Verwenden Sie Überwachungstools wie Amazon CloudWatch
und AWS CloudTrail , um Daten zu Netzwerkaktivitäten zu sammeln. -
Analysen Sie die Daten, um das Netzwerkzugriffsmuster zu identifizieren.
-
-
Wählen Sie Regionen für Ihre Workload-Bereitstellung auf der Grundlage der folgenden zentralen Elemente aus:
-
Standort Ihrer Daten: Für datenintensive Anwendungen (wie etwa Big Data oder Machine Learning) sollte der Anwendungscode so nahe wie möglich zu den Daten ausgeführt werden.
-
Standort Ihrer Benutzer: Wählen Sie für benutzerseitige Anwendungen eine Region (oder Regionen) in der Nähe der Benutzer der Workload.
-
Weitere Einschränkungen: Berücksichtigen Sie Einschränkungen wie Kosten und Compliance, wie unter Relevante Aspekte bei der Wahl einer Region für Ihre Workloads
erläutert.
-
-
Verwenden Sie AWS Local Zones
, um Workloads wie Video-Rendering auszuführen. Mit Local Zones können Sie von allen Vorteilen profitieren, die sich durch die Platzierung der Datenverarbeitungs- und Speicherressourcen in der Nähe Ihrer Endbenutzer ergeben. -
Verwenden Sie AWS Outposts
für Workloads, die On-Premises verarbeitet werden müssen und die Sie nahtlos mit Ihren restlichen Workloads in AWS ausführen möchten. -
Anwendungen wie hochauflösendes Live-Video-Streaming, High-Fidelity-Audio und Augmented Reality oder Virtual Reality (AR/VR) erfordern extrem niedrige Latenzen für 5G-Geräte. Ziehen Sie für solche Anwendungen AWS Wavelength
in Betracht. AWS Wavelength integriert AWS-Services in den Bereichen Datenverarbeitung und Speicher in 5G-Netzwerke und stellt damit eine mobile Computing-Infrastruktur am Edge bereit, um Anwendungen mit ultra-niedrigen Latenzzeiten zu entwickeln, bereitzustellen und zu skalieren. -
Verwenden Sie lokale Zwischenspeicherung oder AWS-Zwischenspeicherung
für häufig genutzte Ressourcen zur Verbesserung der Leistung, zur Verringerung von Datenverschiebungen und zur Reduzierung der Umweltauswirkungen. Service Wann sollte dies verwendet werden? Verwenden Sie dies für die Zwischenspeicherung statischer Inhalte wie Bilder, Skripts und Videos sowie dynamischer Inhalte wie API-Antworten oder Webanwendungen.
Verwenden Sie dies für die Zwischenspeicherung von Inhalten für Webanwendungen.
Verwenden Sie dies für die Add-in-Speicher-Beschleunigung für Ihre DynamoDB-Tabellen.
-
Nutzen Sie Services, die Ihnen dabei helfen können, Code näher an den Benutzern Ihrer Workload auszuführen:
Service Wann sollte dies verwendet werden? Verwenden Sie dies für rechenintensive Anwendungen, die initiiert werden, wenn sich Objekte nicht im Zwischenspeicher befinden.
Verwenden Sie diese für einfache Anwendungsfälle wie HTTP(s)-Anfragen oder Antwortmanipulationen, die von kurzlebigen Funktionen initiiert werden können.
Verwenden Sie dies für die Ausführung lokaler Rechenoperationen, Messaging sowie die Datenzwischenspeicherung für verbundene Geräte.
-
Einige Anwendungen benötigen feste Zugangspunkte oder eine höhere Leistung. Bei diesen müssen First-Byte-Latenz der Jitter verringert und der Durchsatz erhöht werden. Diese Anwendungen können von Netzwerk-Services profitieren, die statische Anycast-IP-Adressen und eine TCP-Terminierung an Edge-Standorten bieten. AWS Global Accelerator
kann die Leistung Ihrer Anwendungen um bis zu 60 % verbessern und bietet ein schnelles Failover für Architekturen mit mehreren Regionen. AWS Global Accelerator stellt Ihnen statische Anycast-IP-Adressen zur Verfügung, die als fester Zugangspunkt für Ihre Anwendungen dienen, die in einer oder mehreren AWS-Regionen gehostet werden. Diese IP-Adressen sorgen dafür, dass Datenverkehr so nah wie möglich an Ihren Benutzern in das globale AWS-Netzwerk eingebunden wird. AWS Global Accelerator reduziert die Zeit für den anfänglichen Verbindungsaufbau, indem eine TCP-Verbindung zwischen dem Client und dem AWS-Edge-Standort hergestellt wird, der dem Client am nächsten liegt. Prüfen Sie die Verwendung von AWS Global Accelerator, um die Leistung Ihrer TCP/UDP-Workloads zu verbessern und einen schnellen Failover für Architekturen mit mehreren Regionen zu ermöglichen.
Ressourcen
Zugehörige bewährte Methoden:
-
COST07-BP02 Implementieren von Regionen auf Basis der Kosten
-
COST08-BP03 Implementieren von Services zur Senkung der Datenübertragungskosten
-
REL10-BP01 Bereitstellen der Workload an mehreren Standorten
-
REL10-BP02 Auswählen der geeigneten Standorte für Ihre Multi-Standort-Bereitstellung
-
SUS04-BP07 Minimieren von Datenübertragungen zwischen Netzwerken
Zugehörige Dokumente:
Zugehörige Videos:
-
AWS re:Invent 2.023 - A migration strategy for edge and on-premises workloads
-
AWS re:Invent 2021 - AWS Outposts: Das AWS-Erlebnis On-Premises
-
AWS re:Invent 2020 – AWS Wavelength: Apps mit ultraniedriger Latenz am 5G-Edge ausführen
-
AWS re:Invent 2022 – AWS Local Zones: Entwickeln von Anwendungen für einen verteilten Edge
-
AWS re:Invent 2.021 - Building low-latency websites with Amazon CloudFront
-
AWS re:Invent 2.022 - Improve performance and availability with AWS Global Accelerator
-
AWS re:Invent 2.022 - Build your global wide area network using AWS
-
AWS re:Invent 2020: Global traffic management with Amazon Route 53
Zugehörige Beispiele: