Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
TabTransformer ist eine neuartige tiefgründige tabellarische Datenmodellierungsarchitektur für überwachtes Lernen. Sie TabTransformer basiert auf Transformers, die auf Selbstaufmerksamkeit basieren. Die Transformer-Ebenen wandeln die Einbettungen kategorischer Features in robuste kontextuelle Einbettungen um, um eine höhere Vorhersagegenauigkeit zu erreichen. Darüber hinaus TabTransformer sind die daraus gewonnenen kontextuellen Einbettungen äußerst robust gegenüber fehlenden und verrauschten Datenmerkmalen und bieten eine bessere Interpretierbarkeit.
TabTransformer schneidet bei Wettbewerben im Bereich maschinelles Lernen aufgrund der robusten Verarbeitung einer Vielzahl von Datentypen, Beziehungen und Verteilungen sowie der Vielzahl von Hyperparametern, die Sie feinabstimmen können, gut ab. Sie können es TabTransformer für Regressions-, Klassifizierungs- (binär- und Mehrklassenprobleme) und Ranking-Probleme verwenden.
Das folgende Diagramm veranschaulicht die TabTransformer Architektur.

Weitere Informationen finden Sie unter TabTransformer: Tabellarische Datenmodellierung mithilfe kontextueller