Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
LightGBM implementiert einen konventionellen Gradient Boosting Decision Tree (GBDT) Algorithmus mit zwei neuen Techniken: Gradient-based One-Side Sampling (GOSS) und Exclusive Feature Bundling (EFB). Diese Techniken wurden entwickelt, um die Effizienz und Skalierbarkeit von GBDT deutlich zu verbessern.
Der LightGBM-Algorithmus ist aufgrund seiner robusten Verarbeitung zahlreicher Datentypen, Beziehungen und Verteilungen und der Vielzahl von optimierbaren Hyperparametern gut für Machine-Learning-Wettbewerbe geeignet. Sie können LightGBM für Regressions-, Binär- und Multiclass-Klassifizierungs- und Ranglistenprobleme verwenden.
Weitere Informationen zur Gradientenverstärkung finden Sie unter Wie funktioniert der SageMaker XGBoost KI-Algorithmus. Ausführliche Informationen zu den zusätzlichen GOSS- und EFB-Techniken, die bei der LightGBM-Methode verwendet werden, finden Sie unter LightGBM: Ein Entscheidungsbaum für hocheffiziente Gradientenverstärkung