Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Integrierte SageMaker-Algorithmen für tabellarische Daten
Amazon SageMaker bietet integrierte Algorithmen, die auf die Analyse von Tabellendaten zugeschnitten sind. Tabellendaten beziehen sich auf alle Datensätze, die in Tabellen organisiert sind, die aus Zeilen (Beobachtungen) und Spalten (Features) bestehen. Die integrierten SageMaker-Algorithmen für Tabellendaten können entweder für Klassifikations- oder Regressionsprobleme verwendet werden.
-
AutoGluon-Tabellarisch—ein Open-Source-AutoML-Framework, das erfolgreich ist, indem es Modelle zusammenfügt und sie in mehreren Ebenen stapelt.
-
CatBoost—eine Implementierung des Gradient-Boosted Trees-Algorithmus, der ein geordnetes Boosting und einen innovativen Algorithmus für die Verarbeitung kategorialer Merkmale einführt.
-
Faktorisierungsmaschinen Algorithmus—Diese Erweiterung eines linearen Modells ist darauf ausgelegt, Interaktionen zwischen Funktionen innerhalb von hochdimensionalen Datasets mit geringer Dichte wirtschaftlich zu erfassen.
-
K-nearest neighbors (k-NN)-Algorithmus— eine nichtparametrische Methode, bei der die k nächstgelegenen beschrifteten Punkte verwendet werden, um einem neuen Datenpunkt zur Klassifizierung oder einem prognostizierten Zielwert aus dem Durchschnitt der k nächstgelegenen Punkte für die Regression eine Markierung zuzuweisen.
-
LightGBM—eine Implementierung des Gradient-Boosted Trees-Algorithmus, der zwei neuartige Techniken zur Verbesserung der Effizienz und Skalierbarkeit hinzufügt: Gradient-based One-Side Sampling (GOSS) und Exclusive Feature Bundling (EFB).
-
Algorithmus für lineares Lernen— lernt eine lineare Funktion für die Regression oder eine lineare Schwellenwertfunktion für die Klassifizierung.
-
TabTransformer— eine neuartige, tiefgründige, tabellarische Datenmodellierungsarchitektur, die auf Transformers basiert, die Eigenverantwortung übernehmen.
-
XGBoost-Algorithmus—eine Implementierung des Gradient-Boosted Trees-Algorithmus, der eine Reihe einfacherer und schwächerer Modelle kombiniert.
Algorithmusname | Kanalname | Schulungseingabemodus | Dateityp | Instance class | Parallelisierbar |
---|---|---|---|---|---|
Autogluon-Tabular | train und (optional) validation | Datei | CSV | GPU oder CPU (nur einzelne Instance) | Nein |
Cat Boost | train und (optional) validation | Datei | CSV | CPU (nur einzelne Instance) | Nein |
Factorization Machines | "train" und (optional) "test" | Datei oder Pipe | recordIO-protobuf | CPU (GPU für Daten mit hoher Dichte) | Ja |
K-Nearest-Neighbors (k-NN) | "train" und (optional) "test" | Datei oder Pipe | recordIO-protobuf oder CSV | CPU- oder GPU (einzelnes GPU-Gerät auf einer oder mehreren Instances) | Ja |
LightGBM | train und (optional) validation | Datei | CSV | CPU (nur einzelne Instance) | Nein |
Lineares Lernen | "train" und (optional) "validation", "test" oder beides | Datei oder Pipe | recordIO-protobuf oder CSV | CPU oder GPU | Ja |
Tab-Transformator | train und (optional) validation | Datei | CSV | GPU oder CPU (nur einzelne Instance) | Nein |
XGBoost (0.90-1, 0.90-2, 1.0-1, 1.2-1, 1.2-21) | "train" und (optional) "validation" | Datei oder Pipe | CSV, LibSVM oder Parquet | CPU (oder GPU für 1.2-1) | Ja |