Integrierte SageMaker-Algorithmen für tabellarische Daten - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Integrierte SageMaker-Algorithmen für tabellarische Daten

Amazon SageMaker bietet integrierte Algorithmen, die auf die Analyse von Tabellendaten zugeschnitten sind. Tabellendaten beziehen sich auf alle Datensätze, die in Tabellen organisiert sind, die aus Zeilen (Beobachtungen) und Spalten (Features) bestehen. Die integrierten SageMaker-Algorithmen für Tabellendaten können entweder für Klassifikations- oder Regressionsprobleme verwendet werden.

  • AutoGluon-Tabellarisch—ein Open-Source-AutoML-Framework, das erfolgreich ist, indem es Modelle zusammenfügt und sie in mehreren Ebenen stapelt.

  • CatBoost—eine Implementierung des Gradient-Boosted Trees-Algorithmus, der ein geordnetes Boosting und einen innovativen Algorithmus für die Verarbeitung kategorialer Merkmale einführt.

  • Faktorisierungsmaschinen Algorithmus—Diese Erweiterung eines linearen Modells ist darauf ausgelegt, Interaktionen zwischen Funktionen innerhalb von hochdimensionalen Datasets mit geringer Dichte wirtschaftlich zu erfassen.

  • K-nearest neighbors (k-NN)-Algorithmus— eine nichtparametrische Methode, bei der die k nächstgelegenen beschrifteten Punkte verwendet werden, um einem neuen Datenpunkt zur Klassifizierung oder einem prognostizierten Zielwert aus dem Durchschnitt der k nächstgelegenen Punkte für die Regression eine Markierung zuzuweisen.

  • LightGBM—eine Implementierung des Gradient-Boosted Trees-Algorithmus, der zwei neuartige Techniken zur Verbesserung der Effizienz und Skalierbarkeit hinzufügt: Gradient-based One-Side Sampling (GOSS) und Exclusive Feature Bundling (EFB).

  • Algorithmus für lineares Lernen— lernt eine lineare Funktion für die Regression oder eine lineare Schwellenwertfunktion für die Klassifizierung.

  • TabTransformer— eine neuartige, tiefgründige, tabellarische Datenmodellierungsarchitektur, die auf Transformers basiert, die Eigenverantwortung übernehmen.

  • XGBoost-Algorithmus—eine Implementierung des Gradient-Boosted Trees-Algorithmus, der eine Reihe einfacherer und schwächerer Modelle kombiniert.

Algorithmusname Kanalname Schulungseingabemodus Dateityp Instance class Parallelisierbar
Autogluon-Tabular train und (optional) validation Datei CSV GPU oder CPU (nur einzelne Instance) Nein
Cat Boost train und (optional) validation Datei CSV CPU (nur einzelne Instance) Nein
Factorization Machines "train" und (optional) "test" Datei oder Pipe recordIO-protobuf CPU (GPU für Daten mit hoher Dichte) Ja
K-Nearest-Neighbors (k-NN) "train" und (optional) "test" Datei oder Pipe recordIO-protobuf oder CSV CPU- oder GPU (einzelnes GPU-Gerät auf einer oder mehreren Instances) Ja
LightGBM train und (optional) validation Datei CSV CPU (nur einzelne Instance) Nein
Lineares Lernen "train" und (optional) "validation", "test" oder beides Datei oder Pipe recordIO-protobuf oder CSV CPU oder GPU Ja
Tab-Transformator train und (optional) validation Datei CSV GPU oder CPU (nur einzelne Instance) Nein
XGBoost (0.90-1, 0.90-2, 1.0-1, 1.2-1, 1.2-21) "train" und (optional) "validation" Datei oder Pipe CSV, LibSVM oder Parquet CPU (oder GPU für 1.2-1) Ja