Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
So funktioniert der lineare Learner
Es gibt drei Schritte bei der Implementierung des Algorithmus für lineares Lernen: Vorverarbeitung, Training und Validierung.
Schritt 1: Vorverarbeitung
Normalisierung ist ein wichtiger Vorbereitungsschritt für verschiedene Verlustmerkmale, der sicherstellt, dass das anhand eines Datensatzes trainierte Modell nicht aufgrund seiner Gewichtung von einem einzelnen Merkmal dominiert wird. Der Amazon SageMaker AI Linear Learner-Algorithmus verfügt über eine Normalisierungsoption, die diesen Vorverarbeitungsschritt unterstützt. Wenn die Normalisierung aktiviert wird, verarbeitet der Algorithmus zunächst eine kleine Stichprobe der Daten, um den Mittelwert und die Standardabweichung für jedes Merkmal und für die Bezeichnung zu ermitteln. Jedes der Merkmale im gesamten Datensatz wird dann verschoben, um einen Mittelwert von 0 zu erreichen, und skaliert, um eine einheitliche Standardabweichung zu erzielen.
Anmerkung
Für beste Ergebnisse sollten die Daten vor dem Training gemischt werden. Ein Training mit nicht gemischten Daten kann zum Fehlschlagen des Trainings führen.
Sie können konfigurieren, ob der Algorithmus für lineares Lernen die Merkmalsdaten und die Bezeichnungen mit den Hyperparametern normalize_data
und normalize_label
normalisiert. Die Normalisierung ist standardmäßig für Merkmale und für Bezeichnungen für die Regression aktiviert. Nur die Merkmale können für die binäre Klassifikation normalisiert werden. Dies ist das Standardverhalten.
Schritt 2: Training
Mit dem linearen Learner-Algorithmus trainieren Sie mit einer verteilten Implementierung von stochastischem Gradientenabstieg (). SGD Sie können den Optimierungsprozess durch Auswählen des Optimierungsalgorithmus steuern. Sie können sich beispielsweise dafür entscheiden, Adam, AdaGrad stochastischen Gradientenabstieg oder andere Optimierungsalgorithmen zu verwenden. Außerdem geben Sie ihre Hyperparameter, wie z. B. Impuls, Lernrate und Lernraten-Scheduler an. Wenn Sie sich nicht sicher sind, welchen Algorithmus oder Hyperparameterwert Sie verwenden sollten, wählen Sie einen Standardwert aus, der für die meisten Datensätze funktioniert.
Während des Trainings optimieren Sie gleichzeitig mehrere Modelle mit jeweils etwas anderen Zielen. Beispiel: Sie variieren L1- oder L2-Regularisation und versuchen, verschiedene Optimierereinstellungen zu finden.
Schritt 3: Validierung und Festlegung des Schwellenwerts
Wenn mehrere Modelle parallel trainiert werden, werden die Modelle anhand eines Validierungssatzes ausgewertet, um nach Abschluss des Trainings das beste Modell auszuwählen. Für die Regression ist das beste Modell dasjenige, das den besten Verlust für den Validierungssatz erzielt. Für die Klassifizierung wird eine Stichprobe des Validierungssatzes verwendet, um den Klassifizierungsschwellenwert zu kalibrieren. Das ausgewählte beste Modell ist das Modell, das die besten Auswahlkriterien für die binäre Klassifikation des Validierungssatzes erreicht. Beispiele für diese Kriterien sind F1-Maß, Genauigkeit und Kreuzentropieverlust.
Anmerkung
Wenn dem Algorithmus kein Validierungssatz übergeben wird, sind Auswertung und Auswahl des besten Modells nicht möglich. Um die Vorteile des parallelen Trainings und der Modellauswahl nutzen zu können, muss ein Validierungssatz für den Algorithmus bereitgestellt werden.