Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Erfassen Sie Metriken zu Java Management Extensions (JMX)

Fokusmodus
Erfassen Sie Metriken zu Java Management Extensions (JMX) - Amazon CloudWatch

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Sie können den CloudWatch Agenten verwenden, um Java Management Extensions (JMX) -Metriken aus Ihren Java-Anwendungen zu sammeln.

Der CloudWatch Agent unterstützt das Sammeln dieser Metriken aus den folgenden Versionen:

  • JVM 8 und höher

  • Kafka 0.8.2.x und höher

  • Tomcat 9, 10.1 und 11 (Beta)

Amazon EC2
Um JMX in Ihrer JVM-Instanz zu aktivieren

Damit der CloudWatch Agent JMX-Metriken sammeln kann, muss sich die JVM Ihrer Anwendung mithilfe der Systemeigenschaft an einen Port binden. com.sun.management.jmxremote.port

java -Dcom.sun.management.jmxremote.port=port-number -jar example.jar

Weitere Informationen und andere Konfigurationen finden Sie in der JMX-Dokumentation.

Amazon EKS
So aktivieren Sie JMX auf Ihren Java-Anwendungs-Pods

Wenn Sie das CloudWatch Observability EKS-Add-on verwenden, können Sie verwalten, wie JMX-Metriken mit Anmerkungen aktiviert werden. Weitere Informationen finden Sie unter Installieren Sie den CloudWatch Agenten mit dem Amazon CloudWatch Observability EKS-Add-on oder dem Helm-Diagramm. Um die Erfassung von JMX-Metriken aus einem Workload zu aktivieren, fügen Sie der Workload-Manifestdatei im Abschnitt die folgenden Anmerkungen hinzu: PodTemplate

  • instrumentation.opentelemetry.io/inject-java: "true"

  • Eine oder mehrere der folgenden Optionen:

    • Für JVM-Metriken: cloudwatch.aws.amazon.com/inject-jmx-jvm: "true"

    • Für Kafka-Broker-Metriken: cloudwatch.aws.amazon.com/inject-jmx-kafka: "true"

    • Für Kafka-Verbraucherkennzahlen: cloudwatch.aws.amazon.com/inject-jmx-kafka-consumer: "true"

    • Für Kennzahlen von Kafka-Herstellern: cloudwatch.aws.amazon.com/inject-jmx-kafka-producer: "true"

    • Für Tomcat-Metriken: cloudwatch.aws.amazon.com/inject-jmx-tomcat: "true"

Um JMX in Ihrer JVM-Instanz zu aktivieren

Damit der CloudWatch Agent JMX-Metriken sammeln kann, muss sich die JVM Ihrer Anwendung mithilfe der Systemeigenschaft an einen Port binden. com.sun.management.jmxremote.port

java -Dcom.sun.management.jmxremote.port=port-number -jar example.jar

Weitere Informationen und andere Konfigurationen finden Sie in der JMX-Dokumentation.

Um mit der Erfassung von JMX-Metriken zu beginnen, fügen Sie dem jmx metrics_collected Abschnitt der CloudWatch Agenten-Konfigurationsdatei einen Abschnitt hinzu. Der jmx Abschnitt kann die folgenden Felder enthalten.

  • jvm Optional. Gibt an, dass Sie Java Virtual Machine (JVM) -Metriken von der Instanz abrufen möchten. Weitere Informationen finden Sie unter Sammeln Sie JVM-Metriken.

    Dieser Abschnitt kann die folgenden Felder enthalten:

    • measurement— Gibt das Array der zu erfassenden JVM-Metriken an. Eine Liste der möglichen Werte, die Sie hier verwenden können, finden Sie in der Spalte Metric (Metrik) in der Tabelle unter Sammeln Sie JVM-Metriken.

      Im Eintrag für jede einzelne Metrik können Sie optional einen oder beide der folgenden Werte angeben:

      • rename – Legt einen anderen Namen für diese Metrik fest.

      • unit – Gibt die zu verwendende Einheit für diese Metrik an und überschreibt die Standardeinheit für die Metrik. Bei der von Ihnen angegebenen Einheit muss es sich um eine gültige CloudWatch metrische Einheit handeln, wie in der Unit Beschreibung unter aufgeführt. MetricDatum

  • kafka Optional. Gibt an, dass Sie Apache Kafka-Broker-Metriken von der Instance abrufen möchten. Weitere Informationen finden Sie unter Sammeln Sie Kafka-Metriken.

    Dieser Abschnitt kann die folgenden Felder enthalten:

    • measurement— Gibt das Array der zu erfassenden Kafka-Broker-Metriken an. Eine Liste der möglichen Werte, die hier verwendet werden können, finden Sie in der Spalte Metrik in der ersten Tabelle unter. Sammeln Sie Kafka-Metriken

      Im Eintrag für jede einzelne Metrik können Sie optional einen oder beide der folgenden Werte angeben:

      • rename – Legt einen anderen Namen für diese Metrik fest.

      • unit – Gibt die zu verwendende Einheit für diese Metrik an und überschreibt die Standardeinheit für die Metrik. Bei der von Ihnen angegebenen Einheit muss es sich um eine gültige CloudWatch metrische Einheit handeln, wie in der Unit Beschreibung unter aufgeführt MetricDatum.

  • kafka-consumer Optional. Gibt an, dass Sie Apache Kafka-Verbrauchermetriken von der Instance abrufen möchten. Weitere Informationen finden Sie unter Sammeln Sie Kafka-Metriken.

    Dieser Abschnitt kann die folgenden Felder enthalten:

    • measurement— Gibt das Array der zu erfassenden Kafka-Broker-Metriken an. Eine Liste der möglichen Werte, die hier verwendet werden können, finden Sie in der Spalte Metrik in der zweiten Metriktabelle unter. Sammeln Sie Kafka-Metriken

      Im Eintrag für jede einzelne Metrik können Sie optional einen oder beide der folgenden Werte angeben:

      • rename – Legt einen anderen Namen für diese Metrik fest.

      • unit – Gibt die zu verwendende Einheit für diese Metrik an und überschreibt die Standardeinheit für die Metrik. Bei der von Ihnen angegebenen Einheit muss es sich um eine gültige CloudWatch metrische Einheit handeln, wie in der Unit Beschreibung unter aufgeführt MetricDatum.

  • kafka-producer Optional. Gibt an, dass Sie Apache Kafka-Producer-Metriken von der Instance abrufen möchten. Weitere Informationen finden Sie unter Sammeln Sie Kafka-Metriken.

    Dieser Abschnitt kann die folgenden Felder enthalten:

    • measurement— Gibt das Array der zu erfassenden Kafka-Broker-Metriken an. Eine Liste der möglichen Werte, die hier verwendet werden können, finden Sie in der Spalte Metrik in der dritten Metriktabelle unter. Sammeln Sie Kafka-Metriken

      Im Eintrag für jede einzelne Metrik können Sie optional einen oder beide der folgenden Werte angeben:

      • rename – Legt einen anderen Namen für diese Metrik fest.

      • unit – Gibt die zu verwendende Einheit für diese Metrik an und überschreibt die Standardeinheit für die Metrik. Bei der von Ihnen angegebenen Einheit muss es sich um eine gültige CloudWatch metrische Einheit handeln, wie in der Unit Beschreibung unter aufgeführt MetricDatum.

  • tomcat Optional. Gibt an, dass Sie Tomcat-Metriken von der Instance abrufen möchten. Weitere Informationen finden Sie unter Sammeln Sie Tomcat-Metriken.

    Dieser Abschnitt kann die folgenden Felder enthalten:

    • measurement— Gibt das Array der zu erfassenden Tomcat-Metriken an. Eine Liste der möglichen Werte, die Sie hier verwenden können, finden Sie in der Spalte Metric (Metrik) in der Tabelle unter Sammeln Sie Tomcat-Metriken.

      Im Eintrag für jede einzelne Metrik können Sie optional einen oder beide der folgenden Werte angeben:

      • rename – Legt einen anderen Namen für diese Metrik fest.

      • unit – Gibt die zu verwendende Einheit für diese Metrik an und überschreibt die Standardeinheit für die Metrik. Bei der von Ihnen angegebenen Einheit muss es sich um eine gültige CloudWatch metrische Einheit handeln, wie in der Unit Beschreibung unter aufgeführt. MetricDatum

Der jmx Abschnitt kann auch das optionale append_dimensions Feld enthalten:

  • append_dimensions Optional. Zusätzliche Dimensionen, die nur für die Prozess-Metriken verwendet werden sollen. Falls Sie dieses Feld angeben, wird es zusätzlich zu den im Feld append_dimensions angegebenen Dimensionen verwendet, das für alle Typen von Metriken verwendet wird, die vom Agent erfasst werden.

Die folgenden Felder sind EC2 nur für Amazon.
  • endpoint— Die Adresse, zu der der JMX-Client eine Verbindung herstellen soll. Das Format ist ip:port. Wenn der Endpunkt nicht der Localhost ist und die Passwortauthentifizierung und SSL aktiviert sein müssen.

  • metrics_collection_interval Optional. Gibt an, wie oft die Prozess-Metriken erfasst werden und das globale metrics_collection_interval im Abschnitt agent der Konfigurationsdatei überschrieben wird.

    Der Wert wird in Sekunden angegeben. Beispiel: Angeben, dass 10 Metriken alle 10 Sekunden und 300 Metriken alle 5 Minuten gesammelt werden sollen.

    Wenn Sie diesen Wert auf weniger als 60 Sekunden festlegen, wird die jeweilige Metrik als hochauflösende Metrik erfasst. Weitere Informationen finden Sie unter Hochauflösende Metriken.

Wenn JMX mit Passwortauthentifizierung oder SSL für den Fernzugriff aktiviert wurde, können Sie die folgenden Felder verwenden.

  • password_file Optional. Gibt eine Java-Eigenschaftendatei mit Schlüsseln für Passwörter an. Die Datei muss schreibgeschützt und auf den Benutzer beschränkt sein, der den Agenten ausführt. CloudWatch Wenn die Kennwortauthentifizierung aktiviert ist, ist dafür dasselbe Paar aus Benutzername und Passwort erforderlich wie für den Eintrag in der JMX-Passwortdatei, die in der Eigenschaft bereitgestellt wird. com.sun.management.jmxremote.password.file Wenn SSL aktiviert ist, sind Einträge für keystore und erforderlich truststore und entspricht javax.net.ssl.trustStorePassword jeweils dem javax.net.ssl.keyStorePassword und.

  • username— Wenn die Passwortauthentifizierung aktiviert ist, geben Sie den Benutzernamen an, der dem Benutzernamen in der bereitgestellten Passwortdatei entspricht.

  • keystore_path— Wenn SSL aktiviert ist, geben Sie den vollständigen Pfad zum Java-Keystore an, der aus einem privaten Schlüssel und einem Zertifikat für den öffentlichen Schlüssel besteht. Entspricht der javax.net.ssl.keyStore Eigenschaft.

  • keystore_type— Wenn SSL aktiviert ist, geben Sie den Typ des verwendeten Keystores an. Entspricht der javax.net.ssl.keyStoreType Eigenschaft.

  • truststore_path— Wenn SSL aktiviert ist, geben Sie den vollständigen Pfad zum Java-Truststore an, der das öffentliche Zertifikat des Remote-JMX-Servers enthalten muss. Entspricht der javax.net.ssl.trustStore Eigenschaft.

  • truststore_type— Wenn SSL aktiviert ist, geben Sie den Typ des verwendeten Truststores an. Entspricht der javax.net.ssl.trustStoreType Eigenschaft.

  • remote_profile Optional. Unterstützte JMX-Remoteprofile sind TLS in Kombination mit den SASL-Profilen: SASL/PLAINSASL/DIGEST-MD5, und. SASL/CRAM-MD5 Sollte einer der folgenden sein:SASL/PLAIN,SASL/DIGEST-MD5,, SASL/CRAM-MD5TLS SASL/PLAIN, oder TLS SASL/DIGEST-MD5 TLS SASL/CRAM-MD5

  • realm Optional. Der vom Remote-Profil geforderte BereichSASL/DIGEST-MD5.

  • registry_ssl_enabled— Wenn die RMI-Registrierungsauthentifizierung aktiviert ist. Auf true gesetzt, wenn die JVM mit konfiguriert wurde. com.sun.management.jmxremote.registry.ssl=true

  • insecureWird auf gesetzt, true um die Überprüfung zu deaktivieren, die erforderlich ist, wenn der Agent für einen Nicht-Localhost-Endpunkt konfiguriert ist.

Im Folgenden finden Sie ein Beispiel für den jmx Abschnitt der CloudWatch Agenten-Konfigurationsdatei.

{ "metrics": { "metrics_collected": { "jmx": [ { "endpoint": "remotehost:1314", "jvm": { "measurement": [ "jvm.memory.heap.init", "jvm.memory.nonheap.used" ] }, "kafka": { "measurement": [ "kafka.request.count", { "name": "kafka.message.count", "rename": "KAFKA_MESSAGE_COUNT", "unit": "Count" } ] }, "username": "cwagent", "keystore_path": "/path/to/keystore", "keystore_type": "PKCS12", "truststore_path": "/path/to/truststore", "truststore_type": "PKCS12" }, { "endpoint": "localhost:1315", "kafka-producer": { "measurement": [ "kafka.producer.request-rate" ] }, "append_dimensions": { "service.name": "kafka/1" } } ] } } }

Sammeln Sie JVM-Metriken

Sie können den CloudWatch Agenten verwenden, um Metriken für Java Virtual Machine (JVM) zu sammeln. Um dies einzurichten, fügen Sie dem jvm Abschnitt der CloudWatch Agenten-Konfigurationsdatei einen jmx Abschnitt hinzu.

Die folgenden Metriken können erfasst werden.

Metrik Dimensionen Beschreibung

jvm.classes.loaded

[STANDARD]

Die Gesamtzahl der geladenen Klassen.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.gc.collections.count

[STANDARD], name

Die Gesamtzahl der Garbage-Collections, die stattgefunden haben.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.gc.collections.elapsed

[STANDARD], name

Die ungefähre verstrichene Zeit für die angesammelte Müllabfuhr.

Einheit: Millisekunden

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.memory.heap.init

[STANDARD]

Die anfängliche Speichermenge, die die JVM vom Betriebssystem für den Heap anfordert.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.memory.heap.max

[STANDARD]

Die maximale Speichermenge, die für den Heap verwendet werden kann.

Einheit: Byte

Aussagekräftige Statistiken: Maximum

jvm.memory.heap.used

[STANDARD]

Die aktuelle Auslastung des Heap-Speichers.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.memory.heap.committed

[STANDARD]

Die Menge an Speicher, die garantiert für den Heap verfügbar ist.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.memory.nonheap.init

[STANDARD]

Die anfängliche Speichermenge, die die JVM vom Betriebssystem für Nicht-Heap-Zwecke anfordert.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.memory.nonheap.max

[STANDARD]

Die maximale Speichermenge, die für Nicht-Heap-Zwecke verwendet werden kann.

Einheit: Byte

Aussagekräftige Statistiken: Maximum

jvm.memory.nonheap.used

[STANDARD]

Die aktuelle Non-Heap-Speichernutzung.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.memory.nonheap.committed

[STANDARD]

Die Menge an Speicher, die garantiert für Nicht-Heap-Zwecke verfügbar ist.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.memory.pool.init

[STANDARD], name

Die anfängliche Speichermenge, die die JVM vom Betriebssystem für den Speicherpool anfordert.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.memory.pool.max

[STANDARD], name

Die maximale Speichermenge, die für den Speicherpool verwendet werden kann.

Einheit: Byte

Aussagekräftige Statistiken: Maximum

jvm.memory.pool.used

[STANDARD], name

Die aktuelle Speichernutzung des Speicherpools.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.memory.pool.committed

[STANDARD], name

Die Speichermenge, die garantiert für den Speicherpool verfügbar ist.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

jvm.threads.count

[STANDARD]

Die aktuelle Anzahl von Threads.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

Die JVM-Metriken werden mit den folgenden Dimensionen erfasst:

Dimension Beschreibung

[STANDARD]

Bei Amazon wird der Host EC2 standardmäßig auch als Dimension von Metriken veröffentlicht, die vom CloudWatch Agenten erfasst werden, es sei denn, Sie verwenden das append_dimensions Feld im metrics Abschnitt. Weitere Informationen finden Sie omit_hostname im Abschnitt Erstellen oder bearbeiten Sie die CloudWatch Agenten-Konfigurationsdatei manuell für Agenten von.

In Amazon EKS wird der k8s-bezogene Kontext standardmäßig auch als Dimensionen von Metriken (k8s.container.name,,k8s.deployment.name, k8s.namespace.name k8s.node.namek8s.pod.name, undk8s.replicaset.name) veröffentlicht. Diese können mithilfe des Felds gefiltert werden. aggregation_dimensions

name

Bei jvm.gc.collections Metriken ist der Wert der Name des Garbage-Collectors.

Bei jvm.memory.pool Metriken ist der Wert der Name des Speicherpools.

Sammeln Sie Kafka-Metriken

Sie können den CloudWatch Agenten verwenden, um Apache Kafka-Metriken zu sammeln. Um dies einzurichten, fügen Sie dem jmx Abschnitt der CloudWatch Agenten-Konfigurationsdatei einen oder mehrere der folgenden Unterabschnitte hinzu.

  • Verwenden Sie einen kafka Abschnitt, um Kafka-Broker-Metriken zu sammeln.

  • Verwenden Sie einen kafka-consumer Abschnitt, um Kafka-Verbrauchermetriken zu sammeln.

  • Verwenden Sie einen kafka-producer Abschnitt, um Kennzahlen für Kafka-Produzenten zu sammeln.

Kennzahlen für Kafka-Broker

Die folgenden Kennzahlen können für Kafka-Broker gesammelt werden.

Metrik Dimensionen Beschreibung

kafka.message.count

[STANDARD]

Die Anzahl der vom Kafka-Broker empfangenen Nachrichten.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.request.count

[STANDARD], type

Die Anzahl der Anfragen, die der Kafka-Broker erhalten hat.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.request.failed

[STANDARD], type

Die Anzahl der Anfragen an den Kafka-Broker, die zu einem Fehler geführt haben.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.request.time.total

[STANDARD], type

Die Gesamtzeit, die der Kafka-Broker für die Bearbeitung von Anfragen benötigt hat.

Einheit: Millisekunden

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.request.time.50p

[STANDARD], type

Die Zeit zum 50. Perzentil, die der Kafka-Broker für die Bearbeitung von Anfragen benötigt hat.

Einheit: Millisekunden

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.request.time.99p

[STANDARD], type

Die 99. Perzentilzeit, die der Kafka-Broker für die Bearbeitung von Anfragen benötigt hat.

Einheit: Millisekunden

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.request.time.avg

[STANDARD], type

Die durchschnittliche Zeit, die der Kafka-Broker für die Bearbeitung von Anfragen benötigt hat.

Einheit: Millisekunden

Aussagekräftige Statistiken: Durchschnitt

kafka.network.io

[STANDARD], state

Die Anzahl der Byte, die vom Kafka-Broker empfangen oder gesendet wurden.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.purgatory.size

[STANDARD], type

Die Anzahl der Anfragen, die im Fegefeuer warten.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.partition.count

[STANDARD]

Die Anzahl der Partitionen auf dem Kafka-Broker.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.partition.offline

[STANDARD]

Die Anzahl der Partitionen, die offline sind.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.partition.under_replicated

[STANDARD]

Die Anzahl der zu wenig replizierten Partitionen.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.isr.operation.count

[STANDARD], operation

Die Anzahl der synchronisierten Operationen zum Verkleinern und Erweitern von Replikaten.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.max.lag

[STANDARD]

Die maximale Verzögerung bei Nachrichten zwischen Follower- und Leader-Replikaten.

Einheit: Keine

Aussagekräftige Statistiken: Maximum

kafka.controller.active.count

[STANDARD]

Die Anzahl der aktiven Controller auf dem Broker.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.leader.election.rate

[STANDARD]

Wahlquote an Führungspersönlichkeiten. Wenn dieser Wert zunimmt, deutet dies auf Ausfälle des Brokers hin.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.unclean.election.rate

[STANDARD]

Wahlquote bei den Wahlen zu unreinen Führern. Wenn dieser Wert zunimmt, deutet dies auf Ausfälle des Brokers hin.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.request.queue

[STANDARD]

Die Größe der Anforderungswarteschlange.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.logs.flush.time.count

[STANDARD]

Die Anzahl der gesammelten Logs wird gelöscht.

Einheit: Millisekunden

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.logs.flush.time.median

[STANDARD]

Der 50. Perzentilwert der Log-Flush-Anzahl.

Einheit: Millisekunden

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.logs.flush.time.99p

[STANDARD]

Der 99. Perzentilwert der Log-Flush-Anzahl.

Einheit: Millisekunden

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

Die Kafka-Broker-Metriken werden anhand der folgenden Dimensionen erfasst:

Dimension Beschreibung

[STANDARD]

Bei Amazon wird der Host EC2 standardmäßig auch als Dimension von Metriken veröffentlicht, die vom CloudWatch Agenten erfasst werden, es sei denn, Sie verwenden das append_dimensions Feld im metrics Abschnitt. Weitere Informationen finden Sie omit_hostname im Abschnitt Erstellen oder bearbeiten Sie die CloudWatch Agenten-Konfigurationsdatei manuell für Agenten von.

In Amazon EKS wird der k8s-bezogene Kontext standardmäßig auch als Dimensionen von Metriken (k8s.container.name,,k8s.deployment.name, k8s.namespace.name k8s.node.namek8s.pod.name, undk8s.replicaset.name) veröffentlicht. Diese können mithilfe des Felds gefiltert werden. aggregation_dimensions

type

Der Anfragetyp. Mögliche Werte sind produce, fetch, fetchconsumer und fetchfollower.

state

Die Richtung des Netzwerkverkehrs. Mögliche Werte sind in und out.

operation

Der Vorgangstyp für das synchrone Replikat. Mögliche Werte sind shrink und expand.

Kennzahlen zu Kafka für Verbraucher

Die folgenden Kennzahlen können für Kafka-Verbraucher erfasst werden.

Metrik Dimensionen Beschreibung

kafka.consumer.fetch-rate

[STANDARD], client-id

Die Anzahl der Abrufanforderungen für alle Themen pro Sekunde.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.consumer.records-lag-max

[STANDARD], client-id

Die Anzahl der Nachrichten, bei denen der Verbraucher dem Hersteller hinterherhinkt.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.consumer.total.bytes-consumed-rate

[STANDARD], client-id

Die durchschnittliche Anzahl der pro Sekunde für alle Themen verbrauchten Byte.

Einheit: Byte

Aussagekräftige Statistiken: Durchschnitt

kafka.consumer.total.fetch-size-avg

[STANDARD], client-id

Die Anzahl der pro Anfrage abgerufenen Byte für alle Themen.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.consumer.total.records-consumed-rate

[STANDARD], client-id

Die durchschnittliche Anzahl der pro Sekunde verbrauchten Datensätze für alle Themen.

Einheit: Keine

Aussagekräftige Statistiken: Durchschnitt

kafka.consumer.bytes-consumed-rate

[STANDARD]client-id, topic

Die durchschnittliche Anzahl der pro Sekunde verbrauchten Byte.

Einheit: Byte

Aussagekräftige Statistiken: Durchschnitt

kafka.consumer.fetch-size-avg

[STANDARD]client-id, topic

Die Anzahl der pro Anfrage abgerufenen Byte.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.consumer.records-consumed-rate

[STANDARD]client-id, topic

Die durchschnittliche Anzahl der pro Sekunde verbrauchten Datensätze.

Einheit: Keine

Aussagekräftige Statistiken: Durchschnitt

Die Kafka-Verbraucherkennzahlen werden anhand der folgenden Dimensionen erfasst:

Dimension Beschreibung

[STANDARD]

Bei Amazon wird der Host EC2 standardmäßig auch als Dimension von Metriken veröffentlicht, die vom CloudWatch Agenten erfasst werden, es sei denn, Sie verwenden das append_dimensions Feld im metrics Abschnitt. Weitere Informationen finden Sie omit_hostname im Abschnitt Erstellen oder bearbeiten Sie die CloudWatch Agenten-Konfigurationsdatei manuell für Agenten von.

In Amazon EKS wird der k8s-bezogene Kontext standardmäßig auch als Dimensionen von Metriken (k8s.container.name,,k8s.deployment.name, k8s.namespace.name k8s.node.namek8s.pod.name, undk8s.replicaset.name) veröffentlicht. Diese können mithilfe des Felds gefiltert werden. aggregation_dimensions

client-id

Die Client-ID

topic

Das Kafka-Thema.

Kennzahlen für Kafka-Produzenten

Die folgenden Kennzahlen können für Kafka-Produzenten gesammelt werden.

Metrik Dimensionen Beschreibung

kafka.producer.io-wait-time-ns-avg

[STANDARD], client-id

Die durchschnittliche Zeit, die der I/O-Thread damit verbracht hat, auf einen Socket zu warten, der für Lese- oder Schreibvorgänge bereit ist.

Einheit: Keine

Aussagekräftige Statistiken: Durchschnitt

kafka.producer.outgoing-byte-rate

[STANDARD], client-id

Die durchschnittliche Anzahl der ausgehenden Byte, die pro Sekunde an alle Server gesendet werden.

Einheit: Byte

Aussagekräftige Statistiken: Durchschnitt

kafka.producer.request-latency-avg

[STANDARD], client-id

Die durchschnittliche Latenz bei Anfragen.

Einheit: Millisekunden

Aussagekräftige Statistiken: Durchschnitt

kafka.producer.request-rate

[STANDARD], client-id

Die durchschnittliche Anzahl der pro Sekunde gesendeten Anfragen.

Einheit: Keine

Aussagekräftige Statistiken: Durchschnitt

kafka.producer.response-rate

[STANDARD], client-id

Die Anzahl der pro Sekunde empfangenen Antworten.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

kafka.producer.byte-rate

[STANDARD]client-id, topic

Die durchschnittliche Anzahl der pro Sekunde für ein Thema gesendeten Byte.

Einheit: Byte

Aussagekräftige Statistiken: Durchschnitt

kafka.producer.compression-rate

[STANDARD]client-id, topic

Die durchschnittliche Komprimierungsrate von Datensatzstapeln für ein Thema.

Einheit: Keine

Aussagekräftige Statistiken: Durchschnitt

kafka.producer.record-error-rate

[STANDARD]client-id, topic

Die durchschnittliche Anzahl von Datensatzsendungen pro Sekunde, die zu Fehlern für ein Thema geführt haben.

Einheit: Keine

Aussagekräftige Statistiken: Durchschnitt

kafka.producer.record-retry-rate

[STANDARD]client-id, topic

Die durchschnittliche Anzahl von wiederholten Datensatzsendungen pro Sekunde für ein Thema.

Einheit: Keine

Aussagekräftige Statistiken: Durchschnitt

kafka.producer.record-send-rate

[STANDARD]client-id, topic

Die durchschnittliche Anzahl der pro Sekunde zu einem Thema gesendeten Datensätze.

Einheit: Keine

Aussagekräftige Statistiken: Durchschnitt

Die Kennzahlen von Kafka-Produzenten werden anhand der folgenden Dimensionen erfasst:

Dimension Beschreibung

[STANDARD]

Bei Amazon wird der Host EC2 standardmäßig auch als Dimension von Metriken veröffentlicht, die vom CloudWatch Agenten erfasst werden, es sei denn, Sie verwenden das append_dimensions Feld im metrics Abschnitt. Weitere Informationen finden Sie omit_hostname im Abschnitt Erstellen oder bearbeiten Sie die CloudWatch Agenten-Konfigurationsdatei manuell für Agenten von.

In Amazon EKS wird der k8s-bezogene Kontext standardmäßig auch als Dimensionen von Metriken (k8s.container.name,,k8s.deployment.name, k8s.namespace.name k8s.node.namek8s.pod.name, undk8s.replicaset.name) veröffentlicht. Diese können mithilfe des Felds gefiltert werden. aggregation_dimensions

client-id

Die Client-ID

topic

Das Kafka-Thema.

Sammeln Sie Tomcat-Metriken

Sie können den CloudWatch Agenten verwenden, um Apache Tomcat-Metriken zu sammeln. Um dies einzurichten, fügen Sie dem tomcat Abschnitt der CloudWatch Agenten-Konfigurationsdatei einen metrics_collected Abschnitt hinzu.

Die folgenden Metriken können erfasst werden.

Metrik Dimensionen Beschreibung

tomcat.sessions

[STANDARD]

Die Anzahl der aktiven Sitzungen.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

tomcat.errors

[STANDARD], proto_handler

Die Anzahl der aufgetretenen Fehler.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

tomcat.processing_time

[STANDARD], proto_handler

Die gesamte Verarbeitungszeit.

Einheit: Millisekunden

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

tomcat.traffic

[STANDARD], proto_handler

Die Anzahl der empfangenen und gesendeten Byte.

Einheit: Byte

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

tomcat.threads

[STANDARD], proto_handler

Die Anzahl der Threads.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

tomcat.max_time

[STANDARD]proto_handler, direction

Maximale Zeit für die Bearbeitung einer Anfrage.

Einheit: Millisekunden

Aussagekräftige Statistiken: Maximum

tomcat.request_count

[STANDARD], proto_handler

Die Gesamtzahl der Anfragen.

Einheit: Keine

Aussagekräftige Statistiken: Minimum, Maximum, Durchschnitt

Tomcat-Metriken werden mit den folgenden Dimensionen erfasst:

Dimension Beschreibung

[STANDARD]

Bei Amazon wird der Host EC2 standardmäßig auch als Dimension von Metriken veröffentlicht, die vom CloudWatch Agenten erfasst werden, es sei denn, Sie verwenden das append_dimensions Feld im metrics Abschnitt. Weitere Informationen finden Sie omit_hostname im Abschnitt Erstellen oder bearbeiten Sie die CloudWatch Agenten-Konfigurationsdatei manuell für Agenten von.

In Amazon EKS wird der k8s-bezogene Kontext standardmäßig auch als Dimensionen von Metriken (k8s.container.name,,k8s.deployment.name, k8s.namespace.name k8s.node.namek8s.pod.name, undk8s.replicaset.name) veröffentlicht. Diese können mithilfe des Felds gefiltert werden. aggregation_dimensions

proto_handler

Das proto_handler ist ein Bezeichner für einen Konnektor, der im <protocol>-<type>-<port> Format bereitgestellt wird (z. B.http-nio-8080).

direction

Die Verkehrsrichtung. Mögliche Werte sind received und sent.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.