Ressourcennutzung anzeigen mit dem KubernetesMetrics Server - Amazon EKS

Hilf mit, diese Seite zu verbessern

Möchten Sie zu diesem Benutzerhandbuch beitragen? Scrollen Sie zum Ende dieser Seite und wählen Sie Diese Seite bearbeiten am aus GitHub. Ihre Beiträge werden dazu beitragen, unser Benutzerhandbuch für alle zu verbessern.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Ressourcennutzung anzeigen mit dem KubernetesMetrics Server

Der Kubernetes Metrics Server aggregiert Daten zur Ressourcennutzung in Ihrem Cluster und wird standardmäßig in Amazon-EKS-Clustern nicht bereitgestellt. Weitere Informationen finden Sie unter Kubernetes Metrics Server auf GitHub. Der Metrics Server wird üblicherweise von anderen Kubernetes-Add-Ons, wie dem Skalieren Sie Pod-Bereitstellungen mit Horizontal Pod Autoscaler oder dem Kubernetes-Dashboard verwendet. Weitere Informationen finden Sie unter Ressourcen-Kennzahlenpipeline in der Kubernetes-Dokumentation. In diesem Thema wird erläutert, wie Sie den Kubernetes Metrics Server in Ihrem Amazon-EKS-Cluster bereitstellen.

Wichtig

Die Metriken sind für point-in-time Analysen gedacht und stellen keine genaue Quelle für historische Analysen dar. Sie können nicht als Überwachungslösung oder für andere Zwecke verwendet werden, die nichts mit Auto Scaling zu tun haben. Weitere Informationen zu Überwachungstools finden Sie unter Überwachen Sie die Leistung Ihres Clusters und sehen Sie sich Logs an.

Den Metrics Server bereitstellen
  1. Stellen Sie den Metrics Server mit dem folgenden Befehl bereit:

    kubectl apply -f https://github.com/kubernetes-sigs/metrics-server/releases/latest/download/components.yaml

    Wenn Sie Fargate verwenden, müssen Sie diese Datei ändern. In der Standardkonfiguration verwendet der Metrikserver Port 10250. Dieser Port ist auf Fargate reserviert. Ersetzen Sie Verweise auf Port 10250 in components.yaml durch einen anderen Port, z. B. 10251.

  2. Überprüfen Sie mit dem folgenden Befehl, ob die metrics-server-Bereitstellung die gewünschte Anzahl Pods umfasst.

    kubectl get deployment metrics-server -n kube-system

    Eine Beispielausgabe sieht wie folgt aus.

    NAME READY UP-TO-DATE AVAILABLE AGE metrics-server 1/1 1 1 6m
  3. Testen Sie, ob der Metrikserver funktioniert, indem Sie die Ressourcennutzung (CPU/Speicher) der Knoten anzeigen.

    kubectl top nodes
  4. Wenn Sie die Fehlermeldung erhaltenError from server (Forbidden), müssen Sie Ihre Kubernetes-RBAC-Konfiguration aktualisieren. Ihre Kubernetes-RBAC-Identität benötigt ausreichende Berechtigungen, um Cluster-Metriken zu lesen. Informieren Sie sich über die mindestens erforderlichen Kubernetes-API-Berechtigungen zum Lesen von Metriken. GitHub Erfahren Sie, wie Sie AWS IAM-Identitäten wie Rollen Zugriff auf Kubernetes-APIs gewähren.