Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Kostenoptimierung
Um eine effektive Ressourcenkontrolle zu unterstützen, ist die Kostenminimierung von Kubernetes für Unternehmen, die diese Container-Orchestrierungstechnologie verwenden, von entscheidender Bedeutung. Aufgrund ihrer Komplexität, die mehrere Komponenten wie Pods und Nodes umfasst, ist es schwierig, die Ausgaben in Kubernetes-Umgebungen richtig nachzuverfolgen. Durch die Anwendung von Techniken zur Kostenoptimierung können Unternehmen erkennen, wofür ihre Ressourcen ausgegeben werden, und die Ausgaben entsprechend Abteilungen oder Projekten zuordnen.
Dynamische Skalierung hat zwar Vorteile, kann aber zu unvorhergesehenen Ausgaben führen, wenn sie nicht richtig verwaltet wird. Ein effizientes Kostenmanagement hilft dabei, Ressourcen nur dann zuzuweisen, wenn sie wirklich benötigt werden, wodurch unerwartete Ausgabensteigerungen vermieden werden.
In diesem Abschnitt werden die folgenden Ansätze zur Kostenoptimierung erörtert:
Kubecost
Kubecost
Kubecost bietet die folgenden Hauptfunktionen:
-
Kostenzuweisung — Kubecost bietet eine gründliche Kostenzuweisung für Kubernetes-Ressourcen, einschließlich Workloads, Services, Namespaces und Labels. Diese Funktion hilft Teams dabei, die Kosten nach Umgebung, Projekt oder Team zu überwachen.
-
Kostenüberwachung in Echtzeit — Sie bietet eine Echtzeitüberwachung der Cloud-Kosten, gibt Unternehmen sofortige Einblicke in die Ausgabenmuster und hilft, unerwartete Kostenüberschreitungen zu vermeiden.
-
Optimierungsempfehlungen — Kubecost bietet praktische Vorschläge zur Minimierung der Ressourcennutzung, einschließlich der Reduzierung ungenutzter Ressourcen, der richtigen Dimensionierung von Workloads und der Maximierung der Speicherkosten.
-
Budgetierung und Benachrichtigungen — Kubecost-Benutzer können Budgets erstellen und Erinnerungen erhalten, wenn sich eine Ausgabe vordefinierten Kriterien nähert oder diese übertrifft. Diese Funktion hilft Teams dabei, finanzielle Einschränkungen einzuhalten.
Goldlöckchen
Goldilocks
Goldilocks bietet die folgenden Hauptfunktionen:
-
Ressourcenempfehlungen — Goldilocks ermittelt die idealen Einstellungen für Ressourcenanfragen und Einschränkungen, indem es frühere CPU- und Speicherverbrauchsstatistiken für Kubernetes-Workloads analysiert. Auf diese Weise wird es einfacher, Unter- oder Überprovisionierung zu vermeiden, was zu Leistungsproblemen und Ressourcenverschwendung führen kann.
-
VPA-Integration — Goldilocks nutzt den Kubernetes Vertical Pod Autoscaler (VPA), um Daten zu sammeln und Empfehlungen abzugeben. Es läuft in einem „Empfehlungsmodus“, was bedeutet, dass es die Ressourceneinstellungen nicht wirklich ändert, sondern eine Anleitung dazu bietet, wie diese Einstellungen aussehen sollten.
-
Namespace-basierte Analyse — Goldlöckchen gibt Ihnen die Möglichkeit, genau zu regulieren, welche Workloads optimiert und überwacht werden, indem Sie bestimmte Namespaces für die Analyse gezielt auswählen können.
-
Visuelles Dashboard — Das webbasierte Dashboard zeigt vorgeschlagene Ressourcenanfragen und Einschränkungen visuell an, sodass Sie die Daten leicht verstehen und entsprechend handeln können.
-
Störungsfreier Betrieb — Goldlöckchen verändert das Setup des Clusters nicht, da es im Empfehlungsmodus arbeitet. Wenn Sie möchten, können Sie die empfohlenen Ressourceneinstellungen manuell anwenden, nachdem Sie die Empfehlungen gelesen haben.
AWS Fargate
Im Kontext von Amazon EKS https://docs.aws.amazon.com/eks/latest/userguide/fargate.htmlAWS Fargate können Sie Kubernetes-Pods ausführen, ohne die zugrunde liegenden EC2 Amazon-Instances verwalten zu müssen. Es handelt sich um eine serverlose Compute-Engine, mit der Sie sich auf die Bereitstellung und Skalierung von containerisierten Anwendungen konzentrieren können, ohne sich Gedanken über die Infrastruktur machen zu müssen.
AWS Fargate bietet die folgenden Hauptfunktionen:
-
Kein Infrastrukturmanagement — Fargate macht die Bereitstellung, Verwaltung oder Skalierung von EC2 Amazon-Instances oder Kubernetes-Knoten überflüssig. AWS kümmert sich um das gesamte Infrastrukturmanagement, einschließlich Patching und Skalierung.
-
Isolierung auf Pod-Ebene — Im Gegensatz zu Worker-Knoten, die auf Amazon basieren EC2, bietet Fargate eine Isolierung auf Aufgaben- oder Pod-Ebene. Jeder Pod wird in seiner eigenen isolierten Computerumgebung ausgeführt, was die Sicherheit und Leistung verbessert.
-
Automatische Skalierung — Fargate skaliert Kubernetes-Pods automatisch je nach Bedarf. Sie müssen keine Skalierungsrichtlinien oder Knotenpools verwalten.
-
Abrechnung pro Sekunde — Sie zahlen nur für die vCPU- und Speicherressourcen, die von jedem Pod genau für die Dauer seiner Ausführung verbraucht werden. Dies ist eine kostengünstige Option für bestimmte Workloads.
-
Geringerer Overhead — Durch den Wegfall der Verwaltung von EC2 Instanzen können Sie sich mit Fargate auf die Erstellung und Verwaltung Ihrer Anwendungen konzentrieren, anstatt sich auf den Betrieb der Infrastruktur zu konzentrieren.
Spot Instances
Spot-Instances bieten erhebliche Einsparungen gegenüber den Preisen für On-Demand-Instances und sind eine erschwingliche Option für den Betrieb von EC2 Amazon-Worker-Knoten in einem Amazon EKS-Cluster. Spot-Instances AWS können jedoch unterbrochen werden, falls On-Demand-Instance-Kapazität benötigt wird. AWS kann Spot-Instances innerhalb von 2 Minuten zurückfordern, wenn die Kapazität benötigt wird, wodurch sie für kritische, statusbehaftete Workloads weniger zuverlässig sind.
Für kostenempfindliche Workloads, die Störungen aushalten können, sind Spot-Instances in Amazon EKS eine gute Option. Durch die Verwendung einer Kombination aus Spot-Instances und On-Demand-Instances in einem Kubernetes-Cluster können Sie Geld sparen, ohne die Verfügbarkeit wichtiger Workloads zu beeinträchtigen.
Spot Instances bietet die folgenden Hauptfunktionen:
-
Kosteneinsparungen — Spot-Instances können günstiger sein als die Preise
für On-Demand-Instances und eignen sich daher ideal für kostensensible Workloads. -
Ideal für fehlertolerante Workloads — Gut geeignet für statuslose, fehlertolerante Workloads wie Batch-Verarbeitung, CI/CD-Jobs, maschinelles Lernen oder umfangreiche Datenverarbeitung, bei der Instanzen ohne größere Unterbrechungen ersetzt werden können.
-
Auto-Scaling-Gruppenintegration — Amazon EKS integriert Spot-Instances mit Kubernetes Cluster Autoscaler, der unterbrochene Spot-Instance-Knoten automatisch durch andere verfügbare Spot-Instances oder On-Demand-Instances ersetzen kann.
Reserved Instances
In Amazon EKS sind Reserved Instances
Reserved Instances werden häufig für Amazon verwendet EC2. Allerdings können auch die Worker-Knoten in Ihrem Amazon EKS-Cluster (bei denen es sich um EC2 Instances handelt) von diesem kostensparenden Modell profitieren, vorausgesetzt, die Arbeitslast erfordert eine langfristige, vorhersehbare Nutzung.
Produktionsservices, Datenbanken und andere statusbehaftete Anwendungen, die hohe Verfügbarkeit und konsistente Leistung benötigen, sind Beispiele für stabile Workloads, die sich gut für Reserved Instances eignen.
Reserved Instances bietet die folgenden Hauptfunktionen:
-
Kosteneinsparungen — Reserved Instances bieten Einsparungen im Vergleich zu On-Demand-Instances, abhängig von der Laufzeit (1 oder 3 Jahre) und dem Zahlungsplan
(All Upfront, Partial Upfront oder No Prefront). -
Langfristiges Engagement — Sie verpflichten sich zu einer Laufzeit von 1 oder 3 Jahren für einen bestimmten Instance-Typ, eine bestimmte Größe und. AWS-Region Dies ist ideal für Workloads, die stabil sind und im Laufe der Zeit kontinuierlich ausgeführt werden.
-
Vorhersehbare Preise — Da Sie an eine bestimmte Laufzeit gebunden sind, bieten Reserved Instances vorhersehbare monatliche oder Vorabkosten, sodass Sie leichter für langfristige Workloads budgetieren können.
-
Instance-Flexibilität — Mit Convertible Reserved Instances können Sie den Instance-Typ, die Instance-Familie oder die Größe während des Reservierungszeitraums ändern. Convertible Reserved Instances bieten mehr Flexibilität als Standard Reserved Instances, die keine Änderungen zulassen.
-
Garantierte Kapazität — Reserved Instances stellen sicher, dass Kapazität in der Availability Zone verfügbar ist, in der die Reservierung vorgenommen wurde. Dies ist entscheidend für kritische Workloads, die eine konstante Rechenleistung benötigen.
-
Kein Unterbrechungsrisiko — Im Gegensatz zu Spot-Instances unterliegen Reserved Instances keiner Unterbrechung durch AWS. Dadurch eignen sie sich ideal für die Ausführung geschäftskritischer Workloads, für die eine garantierte Verfügbarkeit erforderlich ist.
AWS Graviton-Instanzen
AWS Graviton
Graviton-Instances sind eine hervorragende Option für cloudnative und rechenintensive Anwendungen, da sie ein besseres Preis-Leistungs-Verhältnis als x86-Instances bieten. Wenn Sie jedoch die Einführung von Graviton-Instances in Betracht ziehen, sollten Sie die ARM-Kompatibilität berücksichtigen.
AWS Graviton-Instanzen bieten die folgenden Hauptfunktionen:
-
ARM-basierte Architektur — AWS Graviton-Prozessoren basieren auf der ARM-Architektur, die sich von herkömmlichen x86-Architekturen unterscheidet, aber für viele Workloads hocheffizient ist.
-
Kosteneffizient — EC2 Amazon-Instances, die auf Graviton basieren, bieten im Vergleich zu x86-basierten Instances in der Regel ein besseres Preis-Leistungs-Verhältnis. EC2 Dies macht sie zu einer attraktiven Option für Kubernetes-Cluster, auf denen Amazon EKS ausgeführt wird.
-
Leistung — Graviton2-Prozessoren, die zweite Generation von AWS Graviton, bieten erhebliche Verbesserungen in Bezug auf Rechenleistung, Speicherdurchsatz und Energieeffizienz. Sie eignen sich ideal für rechenintensive und speicherintensive Workloads.
-
Verschiedene Instance-Typen — Graviton-Instances gibt es in verschiedenen Familien, z. B. t4g, m7g, c7g und r7g, die eine Reihe von Anwendungsfällen abdecken, von allgemeinen bis hin zu rechenoptimierten, speicheroptimierten und burstfähigen Workloads.
-
Amazon EKS-Knotengruppen — Sie können Knotengruppen, die von Amazon EKS verwaltet werden, oder selbstverwaltete Knotengruppen so konfigurieren, dass sie Graviton-basierte Instances enthalten. Mit diesem Ansatz können Sie Workloads, die für die ARM-Architektur optimiert sind, auf demselben Kubernetes-Cluster zusammen mit x86-basierten Instances ausführen.