Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
XGBoost-Hyperparameter
Die folgende Tabelle enthält die Teilmenge der Hyperparameter, die für den Amazon SageMaker XGBoost-Algorithmus erforderlich sind oder am häufigsten verwendet werden. Dies sind Parameter, die von Benutzern festgelegt werden, um die Schätzung der Modellparameter aus Daten zu erleichtern. Die obligatorischen Hyperparameter, die festgelegt werden müssen, sind zuerst aufgelistet (in alphabetischer Reihenfolge). Die optionalen Hyperparameter, die festgelegt werden können, sind als Nächstes aufgeführt (ebenfalls in alphabetischer Reihenfolge). Der SageMaker XGBoost-Algorithmus ist eine Implementierung des Open-Source-DMLC-Pakets XGBoost. Weitere Informationen zum vollständigen Satz von Hyperparametern, die für diese Version von XGBoost konfiguriert werden können, finden Sie unter XGBoost-Parameter
Name des Parameters | Beschreibung |
---|---|
num_class |
Die Anzahl der Klassen. Erforderlich, wenn Gültige Werte: Ganzzahl. |
num_round |
Die Anzahl der Runden, die für die Ausführung des Trainings notwendig ist. Erforderlich Gültige Werte: Ganzzahl. |
alpha |
L1-Regularisierungsbedingung für Gewichtungen. Eine Erhöhung dieses Werts macht Modelle konservativer. Optional Gültige Werte: Gleitkommazahl. Standardwert: 0 |
base_score |
Die erste Prognosebewertung aller Instances, globale Verzerrung. Optional Gültige Werte: Gleitkommazahl. Standardwert: 0.5 |
booster |
Welcher Booster empfiehlt sich? Die Werte Optional Gültige Werte: Zeichenfolge. Entweder Standardwert: |
colsample_bylevel |
Teilstichprobenverhältnis von Spalten für jede Teilung auf jeder Ebene. Optional Gültige Werte: Gleitkommazahl. Bereich: [0,1]. Standardwert: 1 |
colsample_bynode |
Teilstichprobenverhältnis der Spalten von jedem Knoten. Optional Gültige Werte: Gleitkommazahl. Bereich: [0,1]. Standardwert: 1 |
colsample_bytree |
Teilstichprobenverhältnis von Spalten beim Erstellen jedes Baums. Optional Gültige Werte: Gleitkommazahl. Bereich: [0,1]. Standardwert: 1 |
csv_weights |
Wenn dieses Flag aktiviert ist, differenziert XGBoost die Bedeutung von Instances für CSV-Eingaben, indem die zweite Spalte (die Spalte nach den Bezeichnungen) in Trainingsdaten als Instance-Gewichtungen herangezogen wird. Optional Gültige Werte: 0 oder 1 Standardwert: 0 |
deterministic_histogram |
Wenn dieses Flag aktiviert ist, erstellt XGBoost deterministisch ein Histogramm auf der GPU. Wird nur verwendet, wenn Eine vollständige Liste gültiger Eingabeparameter finden Sie unter XGBoost Parameters Optional Gültige Werte: Zeichenfolge. Bereich: Standardwert: |
early_stopping_rounds |
Das Modell wird so lange trainiert, bis die Validierungsbewertung keine Verbesserung mehr zeigt. Der Validierungsfehler muss mindestens jedes Mal abnehmen, um das Training fortzusetzen. Optional Gültige Werte: Ganzzahl. Standardwert: - |
eta |
Reduzierung der Schrittgröße in Updates, um Überanpassung zu verhindern. Nach jedem Boosting-Schritt können Sie direkt die Gewichtungen der neuen Merkmale erhalten. Der Parameter Optional Gültige Werte: Gleitkommazahl. Bereich: [0,1]. Standardwert: 0.3 |
eval_metric |
Evaluationsmetriken für die Datenvalidierung. Eine Standardmetrik wird je nach Ziel zugewiesen:
Eine Liste gültiger Eingabeparameter finden Sie unter XGBoost-Parameter für die Lernaufgabe Optional Gültige Werte: Zeichenfolge. Standardwert: Standard gemäß Ziel. |
gamma |
Es ist eine minimale Verlustreduzierung erforderlich, um eine weitere Partition auf einem Blattknoten des Baums zu erstellen. Je größer, desto konservativer ist der Algorithmus. Optional Gültige Werte: Gleitkommazahl. Bereich: [0,∞). Standardwert: 0 |
grow_policy |
Steuert die Art und Weise, wie neue Knoten zur Struktur hinzugefügt werden. Wird derzeit nur unterstützt, wenn Optional Gültige Werte: Zeichenfolge. Entweder Standardwert: |
interaction_constraints |
Geben Sie Gruppen von Variablen an, die interagieren dürfen. Optional Gültige Werte: Verschachtelte Liste von ganzen Zahlen. Jede Ganzzahl steht für ein Feature, und jede verschachtelte Liste enthält Features, die interagieren dürfen, z. B. [[1,2], [3,4,5]]. Standardwert: Keiner |
lambda |
L2-Regularisierungsbedingung für Gewichtungen. Eine Erhöhung dieses Werts macht Modelle konservativer. Optional Gültige Werte: Gleitkommazahl. Standardwert: 1 |
lambda_bias |
L2-Regularisierungsbedingung für Verzerrungen. Optional Gültige Werte: Gleitkommazahl. Bereich: [0.0, 1.0]. Standardwert: 0 |
max_bin |
Maximale Anzahl diskreter Pakete zum Gruppieren kontinuierlicher Merkmale. Wird nur verwendet, wenn Optional Gültige Werte: Ganzzahl. Standardwert: 256 |
max_delta_step |
Maximaler Delta-Schritt für die Gewichtungsschätzung für jeden Baum. Wenn eine positive Ganzzahl verwendet wird, trägt dies zu einer konservativeren Aktualisierung bei. Die bevorzugte Option ist die Verwendung in logistischer Regression. Setzen Sie sie auf 1-10, um die Aktualisierung zu kontrollieren. Optional Gültige Werte: Ganzzahl. Bereich: [0,∞). Standardwert: 0 |
max_depth |
Maximale Tiefe eines Baums. Durch Erhöhen dieses Wertes wird das Modell komplexer und wahrscheinlich überangepasst. 0 gibt an, dass keine Begrenzung vorliegt. Ein Begrenzung ist erforderlich, wenn Optional Gültige Werte: Ganzzahl. Bereich: [0,∞) Standardwert: 6 |
max_leaves |
Maximale Anzahl der hinzuzufügenden Knoten. Ist nur relevant, wenn Optional Gültige Werte: Ganzzahl. Standardwert: 0 |
min_child_weight |
Minimale Summe der Instance-Gewichtung (Hesse), die für eine untergeordnete Struktur erforderlich ist. Wenn der Partitionsschritt des Baums einen Blattknoten zum Ergebnis hat, dessen Instance-Gewicht-Summe kleiner als Optional Gültige Werte: Gleitkommazahl. Bereich: [0,∞). Standardwert: 1 |
monotone_constraints |
Gibt Einschränkungen der Monotonie für jedes Feature an. Optional Gültige Werte: Tupel von ganzen Zahlen. Gültige Ganzzahlen: -1 (abnehmende Einschränkung), 0 (keine Einschränkung), 1 (zunehmende Einschränkung). Beispiel: (0, 1): Keine Einschränkung für den ersten Prädiktor und eine zunehmende Einschränkung für den zweiten. (-1, 1): Abnehmende Einschränkung für den ersten Prädiktor und eine zunehmende Einschränkung für den zweiten. Standardwert: (0, 0) |
normalize_type |
Typ eines Normalisierungsalgorithmus. Optional Gültige Werte: Entweder tree oder forest. Standardwert: tree |
nthread |
Anzahl der parallelen Threads zum Ausführen von xgboost. Optional Gültige Werte: Ganzzahl. Standardwert: Maximale Anzahl an Threads. |
objective |
Legt die Lernaufgabe und das entsprechende Lernziel fest. Beispiele: Optional Zulässige Werte: String Standardwert: |
one_drop |
Wenn diese Kennzeichen aktiviert ist, fällt während eines Abbruchs mindestens ein Baum aus. Optional Gültige Werte: 0 oder 1 Standardwert: 0 |
process_type |
Typ des auszuführenden Boosting-Prozesses. Optional Gültige Werte: Zeichenfolge. Entweder Standardwert: |
rate_drop |
Die Ausfallrate, die einen Bruchteil eines vorherigen Baums angibt, der während eines Abbruchs ausfällt. Optional Gültige Werte: Gleitkommazahl. Bereich: [0.0, 1.0]. Standardwert: 0.0 |
refresh_leaf |
Dies ist ein Parameter des Aktualisierungs-Plugins 'refresh'. Wenn Sie ihn auf Optional Gültige Werte: 0/1 Standardwert: 1 |
sample_type |
Typ eines Stichprobenalgorithmus. Optional Gültige Werte: Entweder Standardwert: |
scale_pos_weight |
Kontrolliert die Balance zwischen positiven und negativen Gewichtungen. Er ist nützlich bei Klassen, die nicht im Gleichgewicht sind. Ein typischer Wert dafür: Optional Gültige Werte: Gleitkommazahl Standardwert: 1 |
seed |
Numerischer Startwert. Optional Gültige Werte: Ganzzahl Standardwert: 0 |
single_precision_histogram |
Wenn dieses Flag aktiviert ist, verwendet XGBoost anstelle von doppelter Präzision zur Erstellung von Histogrammen die einfache Präzision. Wird nur verwendet, wenn Eine vollständige Liste gültiger Eingabeparameter finden Sie unter XGBoost Parameters Optional Gültige Werte: Zeichenfolge. Bereich: Standardwert: |
sketch_eps |
Wird nur für einen approximativen Greedy-Algorithmus verwendet. Damit ergibt sich eine Paketanzahl von O(1/ Optional Gültige Werte: Float, Bereich: [0, 1]. Standardwert: 0.03 |
skip_drop |
Wahrscheinlichkeit, mit der das Ausfallverfahren während einer Boosting-Iteration übersprungen wird. Optional Gültige Werte: Gleitkommazahl. Bereich: [0.0, 1.0]. Standardwert: 0.0 |
subsample |
Teilstichprobenverhältnis der Trainings-Instance. Auf 0,5 setzen, bedeutet, dass XGBoost die Hälfte der Daten-Instances nach dem Zufallsprinzip sammelt, um Bäume zu vergrößern. Dies verhindert eine Überanpassung. Optional Gültige Werte: Gleitkommazahl. Bereich: [0,1]. Standardwert: 1 |
tree_method |
Der in XGBoost verwendete Baum-Konstruktionsalgorithmus. Optional Gültige Werte: One of Standardwert: |
tweedie_variance_power |
Parameter, der die Varianz der Tweedie-Verteilung steuert. Optional Gültige Werte: Gleitkommazahl. Bereich: (1, 2) Standardwert: 1.5 |
updater |
Eine durch Komma getrennte Zeichenfolge, welche die Reihenfolge festlegt, in der die Baum-Updater ausgeführt werden. Dies ist eine modulare Methode, um Bäume zu erstellen und zu ändern. Eine vollständige Liste gültiger Eingabeparameter finden Sie unter XGBoost Parameters Optional Gültige Werte: durch Komma getrennte Zeichenfolge. Standardwert: |
use_dask_gpu_training |
Stellen Sie Optional Gültige Werte: Zeichenfolge. Bereich: Standardwert: |
verbosity |
Ausführlichkeit beim Drucken von Nachrichten. Gültige Werte: 0 (stumm), 1 (Warnung), 2 (Info), 3 (Debug). Optional Standardwert: 1 |