Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
SageMaker Algoritmi integrati per dati tabulari
Amazon SageMaker fornisce algoritmi integrati personalizzati per l'analisi di dati tabulari. I dati tabulari si riferiscono a qualsiasi set di dati organizzato in tabelle costituite da righe (osservazioni) e colonne (funzionalità). SageMaker Gli algoritmi integrati per i dati tabulari possono essere utilizzati per problemi di classificazione o regressione.
-
AutoGluon-Tabulare: un framework AutoML open source che riesce a raggruppare modelli e impilarli su più livelli.
-
CatBoost: un'implementazione dell'algoritmo alberi potenziati dal gradiente che introduce il potenziamento ordinato e un algoritmo innovativo per l'elaborazione delle funzionalità categoriche.
-
Algoritmo delle macchine di fattorizzazione: Si tratta di un'estensione di un modello lineare che è stato progettato per acquisire in modo economico le interazioni tra le funzionalità all'interno del set di dati sparsi altamente dimensionali.
-
Algoritmo K-Nearest Neighbors (k-NN): un metodo non parametrico che utilizza i punti k etichettati più vicini per assegnare un'etichetta a un nuovo punto dati per la classificazione o un valore target previsto sulla base della media dei k punti più vicini per la regressione.
-
Leggero GBM: un'implementazione dell'algoritmo alberi potenziati dal gradiente che aggiunge due nuove tecniche per migliorare l'efficienza e la scalabilità: Gradient-based One-Side Sampling (GOSS) ed Exclusive Feature Bundling (EFB).
-
Algoritmo di apprendimento lineare: apprende una funzione lineare per la regressione o una funzione di soglia lineare per la classificazione.
-
TabTransformer—una nuova architettura di modellazione dei dati tabulare approfondita basata su Transformers. self-attention-based
-
XGBoostalgoritmo con Amazon SageMaker: un'implementazione dell'algoritmo alberi potenziati dal gradiente che combina un insieme di stime di una serie di modelli più semplici e più deboli.
Nome algoritmo | Nome canale | Modalità di input per l'addestramento | Tipo di file | Classe di istanza | Parallelizzabile |
---|---|---|---|---|---|
AutoGluon-Tabulare | addestramento e (facoltativamente) convalida | File | CSV | CPU o GPU (solo istanza singola) | No |
CatBoost | addestramento e (facoltativamente) convalida | File | CSV | CPU (solo istanza singola) | No |
Macchine di fattorizzazione | addestrare e (facoltativamente) testare | File o Pipe | recordIO-protobuf | CPU (GPU per dati a densità alta) | Sì |
K-Nearest-Neighbors (k-NN) | addestrare e (facoltativamente) testare | File o Pipe | recordIO-protobuf o CSV | CPU o GPU (singolo dispositivo GPU su una o più istanze) | Sì |
LightGBM | addestramento e (facoltativamente) convalida | File | CSV | CPU (solo istanza singola) | No |
Linear Learner | addestra e (facoltativamente) convalida, test o entrambi | File o Pipe | recordIO-protobuf o CSV | CPU o GPU | Sì |
TabTransformer | addestramento e (facoltativamente) convalida | File | CSV | CPU o GPU (solo istanza singola) | No |
XGBoost (0.90-1, 0.90-2, 1.0-1, 1.2-1, 1.2-21) | addestramento e (facoltativamente) convalida | File o Pipe | CSV, libSVM o Parquet | CPU (o GPU per 1.2-1) | Sì |