Skalierung berechnen - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Skalierung berechnen

Die Skalierung von Rechenleistung ist eine wichtige Komponente für die Anwendungsleistung in einer dynamischen Kubernetes-Umgebung. Kubernetes reduziert Verschwendung durch die dynamische Anpassung der Rechenressourcen (wie CPU und Speicher) an die Nachfrage in Echtzeit. Diese Funktion trägt dazu bei, eine Über- oder Unterbereitstellung zu vermeiden, wodurch auch Betriebskosten eingespart werden können. Kubernetes macht manuelle Eingriffe effektiv überflüssig, da die Infrastruktur zu Spitzenzeiten automatisch hochskaliert und zu Nebenzeiten herunterskaliert werden kann.

Die allgemeine Rechenskalierung von Kubernetes automatisiert den Skalierungsprozess, wodurch die Flexibilität und Skalierbarkeit der Anwendung erhöht und ihr fehlertolerantes Verhalten verbessert wird. Letztlich verbessern die Funktionen von Kubernetes die betriebliche Exzellenz und Produktivität.

In diesem Abschnitt werden die folgenden Arten der Rechenskalierung beschrieben:

Cluster AutoScaler

Je nach den Anforderungen der Pods passt das Cluster Autoscaler-Tool die Größe automatisch an, indem es bei Bedarf Knoten hinzufügt oder Knoten entfernt, wenn sie nicht benötigt werden und nicht ausgelastet sind.

Betrachten Sie das Cluster Autoscaler-Tool als Skalierungslösung für Workloads, bei denen die Nachfrage schrittweise steigt und die Latenz bei der Skalierung kein großes Problem darstellt.

Das Cluster Autoscaler-Tool bietet die folgenden Hauptfunktionen:

  • Skalierung — Skaliert Knoten dynamisch nach oben und unten als Reaktion auf den tatsächlichen Ressourcenbedarf.

  • Pod-Planung — Hilft sicherzustellen, dass jeder Pod betriebsbereit ist und über die Ressourcen verfügt, die er benötigt, um zu funktionieren, und verhindert so Ressourcenknappheit.

  • Kosteneffizienz — Eliminiert die unnötigen Kosten für den Betrieb nicht ausgelasteter Knoten, indem diese eliminiert werden.

Cluster-Autoscaler mit Over-Provisioning

Cluster-Autoscaler mit Over-Provisioning funktioniert ähnlich wie Cluster-Autoscaler, da er Knoten effizient bereitstellt und Zeit spart, indem Pods mit niedriger Priorität auf den Knoten ausgeführt werden. Bei dieser Technik wird der Datenverkehr als Reaktion auf plötzliche Bedarfsspitzen in diese Pods umgeleitet, sodass die Anwendung ohne Unterbrechung weiterarbeiten kann.

Cluster Autoscaler mit Over-Provisioning bietet die Funktionen von Dummy-Pods, mit denen Knoten einfach bereitgestellt und ausgeführt werden können, wenn die Arbeitslast sehr groß ist, keine Latenz erforderlich ist und die Skalierung schnell erfolgen muss.

Cluster Autoscaler mit Over-Provisioning bietet die folgenden Hauptfunktionen:

  • Bessere Reaktionsfähigkeit — Da überschüssige Kapazität ständig verfügbar ist, nimmt die Skalierung des Clusters als Reaktion auf Nachfragespitzen weniger Zeit in Anspruch.

  • Ressourcenreservierung — Der effektive Umgang mit unerwarteten Verkehrsspitzen unterstützt die korrekte Verwaltung mit nur geringen Ausfallzeiten.

  • Reibungslose Skalierung — Die Minimierung von Verzögerungen bei der Ressourcenzuweisung ermöglicht einen reibungsloseren Skalierungsprozess.

Karpenter

Karpenter for Kubernetes übertrifft das herkömmliche Cluster Autoscaler-Tool in Bezug auf Open Source, Leistung und Anpassbarkeit. Mit Karpenter können Sie automatisch nur die benötigten Rechenressourcen starten, um die Anforderungen Ihres Clusters in Echtzeit zu erfüllen. Karpenter wurde entwickelt, um eine effizientere und reaktionsschnellere Skalierung zu ermöglichen.

Anwendungen mit extrem variablen oder komplexen Workloads, bei denen schnelle Skalierungsentscheidungen unerlässlich sind, profitieren stark von der Verwendung von Karpenter. Es lässt sich integrieren und bietet eine verbesserte Bereitstellung und Optimierung der Knotenauswahl. AWS

Karpenter umfasst die folgenden Hauptfunktionen:

  • Dynamische Bereitstellung — Karpenter stellt die richtigen Instanzen und Größen für diesen Zweck bereit und stellt neue Knoten dynamisch auf der Grundlage der speziellen Anforderungen von Pods bereit.

  • Erweitertes Scheduling — Mithilfe einer cleveren Pod-Platzierung ordnet Karpenter die Knoten so an, dass Ressourcen wie GPU, CPU, Arbeitsspeicher und Speicher so effektiv wie möglich genutzt werden.

  • Schnelle Skalierung — Karpenter kann schnell skalieren und reagiert häufig innerhalb von Sekunden. Diese Reaktionsfähigkeit ist hilfreich bei plötzlichem Datenverkehr oder wenn die Arbeitslast eine sofortige Skalierung erfordert

  • Kosteneffizienz — Durch die sorgfältige Auswahl der effektivsten Instance können Sie die Betriebskosten senken und zusätzliche kostensparende Alternativen wie On-Demand-Instances AWS, Spot-Instances und Reserved Instances nutzen.