Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
CatBoost implementiert einen konventionellen GBDT-Algorithmus (Gradient Boosting Decision Tree) und fügt zwei wichtige algorithmische Verbesserungen hinzu:
Die Implementierung von Ordered Boosting, einer permutationsgesteuerten Alternative zum klassischen Algorithmus
Ein innovativer Algorithmus zur Verarbeitung kategorischer Features
Beide Techniken wurden entwickelt, um einer Verschiebung der Voraussage entgegenzuwirken, die durch eine besondere Art von Zielleckage verursacht wird, die in allen derzeit vorhandenen Implementierungen von Gradienten-Boosting-Algorithmen auftritt.
Der CatBoost Algorithmus schneidet bei Wettbewerben im Bereich maschinelles Lernen aufgrund seiner robusten Verarbeitung einer Vielzahl von Datentypen, Beziehungen und Verteilungen sowie der Vielzahl von Hyperparametern, die Sie feinabstimmen können, gut ab. Sie können ihn CatBoost für Regressions-, Klassifizierungs- (binär- und Mehrklassenprobleme) und Ranking-Probleme verwenden.
Weitere Informationen zur Gradientenverstärkung finden Sie unter Wie funktioniert der SageMaker XGBoost KI-Algorithmus. Ausführliche Informationen zu den zusätzlichen in der CatBoost Methode verwendeten GOSS- und EFB-Techniken finden Sie unter CatBoost: Unvoreingenommenes