Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Auto-Tune für Amazon Service OpenSearch
Auto-Tune in Amazon OpenSearch Service verwendet Leistungs- und Nutzungsmetriken aus Ihrem OpenSearch Cluster, um speicherbezogene Konfigurationsänderungen vorzuschlagen, einschließlich Warteschlangen- und Cachegrößen und Einstellungen für virtuelle Java-Maschinen (JVM) auf Ihren Knoten. Diese optionalen Änderungen verbessern die Clustergeschwindigkeit und -stabilität.
Einige Änderungen werden sofort implementiert, während andere außerhalb der Spitzenzeiten Ihrer Domain geplant sind. Sie können jederzeit zu den standardmäßigen OpenSearch Serviceeinstellungen zurückkehren. Während Auto-Tune Leistungskennzahlen für Ihre Domain sammelt und analysiert, können Sie die zugehörigen Empfehlungen in der OpenSearch Servicekonsole auf der Seite Benachrichtigungen einsehen.
Änderungsarten
Die automatische Optimierung hat zwei große Kategorien von Änderungen:
-
Unterbrechungsfreie Änderungen, die bei der Ausführung des Clusters vorgenommen werden.
-
Änderungen, für die eine blaue/grüne Bereitstellung erforderlich ist, die dann angewendet wird, wenn die Domain nicht in Spitzenzeiten arbeitet.
Basierend auf den Leistungsmetriken Ihrer Domain kann die automatische Optimierung Anpassungen an den folgenden Einstellungen vorschlagen:
Änderungstyp | Kategorie | Beschreibung |
---|---|---|
JVMGröße des Stapels |
Blau/Grün |
Standardmäßig verwendet OpenSearch Service 50% der Instances RAM für den JVM Heap, bis zu einer Heap-Größe von 32 GiB. Wenn Sie diesen Prozentsatz erhöhen, erhalten Sie OpenSearch mehr Arbeitsspeicher, es bleibt jedoch weniger für das Betriebssystem und andere Prozesse übrig. Größere Werte können die Anzahl der Garbage-Collection-Pausen verringern, aber die Länge dieser Pausen erhöhen. |
JVMEinstellungen für die junge Generation |
Blau/Grün |
JVMDie Einstellungen für die „junge Generation“ wirken sich auf die Häufigkeit kleinerer Müllabfuhren aus. Häufigere kleinere Sammlungen können die Anzahl der großen Sammlungen und Pausen verringern. |
Warteschlangengröße |
Unterbrechungsfrei |
Standardmäßig ist die Größe der Suchwarteschlange |
Cache-Größe |
Unterbrechungsfrei |
Die Feld-Cache überwacht Datenstrukturen auf Heap. Daher ist es wichtig, die Verwendung des Caches zu überwachen. Die automatische Optimierung skaliert die Größe des Felddaten-Caches, um Probleme mit dem Arbeitsspeicher und dem Leistungsschalter zu vermeiden. Die Shard-Anforderungs-Cache wird auf Knotenebene verwaltet und hat eine standardmäßige maximale Größe von 1 % des Heaps. Die automatische Optimierung skaliert die Größe des Shard-Anforderungscaches, um mehr Such- und Indexanforderungen zu akzeptieren, als das, was der konfigurierte Cluster verarbeiten kann. |
Anforderungsgröße | Unterbrechungsfrei |
Wenn die Gesamtgröße der laufenden Anfragen 10% der Gesamtzahl übersteigt JVM (2% für Auto-Tune passt diesen Schwellenwert, der normalerweise zwischen 5 und 15% liegt, automatisch an, je nachdem, wie viel JVM davon derzeit auf dem System belegt ist. Wenn beispielsweise die JVM Speicherauslastung hoch ist, kann Auto-Tune den Schwellenwert auf 5% reduzieren. Ab diesem Zeitpunkt kann es zu mehr Ablehnungen kommen, bis sich der Cluster stabilisiert und der Schwellenwert steigt. |
Überwachen von Auto-Tune-Änderungen
Sie können Auto-Tune-Statistiken in überwachen. Amazon CloudWatch Eine vollständige Liste der Metriken finden Sie unter Metriken automatisch abstimmen.
OpenSearch Der Service sendet Auto-Tune-Ereignisse an Amazon EventBridge. Sie können Regeln konfigurieren EventBridge , die beim Empfang eines Ereignisses eine E-Mail senden oder eine bestimmte Aktion ausführen. Informationen zum Format der einzelnen Auto-Tune-Ereignisse, an die gesendet wurden EventBridge, finden Sie unterAutomatische Optimierung von Ereignissen.