Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Automatische Modelloptimierung mit SageMaker
Amazon SageMaker Automatic Model Tuning (AMT) findet die beste Version eines Modells, indem es viele Trainingsjobs mit Ihrem Datensatz ausführt. Die SageMaker automatische Modelloptimierung von Amazon (AMT) wird auch als Hyperparameter-Tuning bezeichnet. Dazu AMT verwendet es den Algorithmus und die Bereiche von Hyperparametern, die Sie angeben. Es wählt dann die Hyperparameterwerte aus, die ein Modell erstellen, das gemessen an einer von Ihnen gewählten Metrik die beste Leistung erbringt.
Beispiel: Ausführen eines binären Klassifizierungsproblems für einen Marketing-Datensatz. Ihr Ziel ist es, die Fläche unter der Kennzahl Kurve (AUC) des Algorithmus zu maximieren, indem Sie ein XGBoostAlgorithmus mit Amazon SageMaker Modell trainieren. Sie möchten herausfinden, mit welchen Werten für die Hyperparameter eta
alpha
,min_child_weight
und max_depth
das Modell am besten trainiert werden kann. Geben Sie einen Wertebereich für diese Hyperparameter an. Anschließend sucht das SageMaker Hyperparameter-Tuning innerhalb der Bereiche nach einer Kombination, die zu einem Trainingsjob führt, der ein Modell mit dem höchsten Wert AUC erzeugt. Um Ressourcen zu schonen oder bestimmte Erwartungen an die Modellqualität zu erfüllen, richten Sie Abschlusskriterien ein, sodass die Feinabstimmung beendet wird, wenn die Kriterien erfüllt sind.
Sie können es SageMaker AMT mit integrierten Algorithmen, benutzerdefinierten Algorithmen oder SageMaker vorgefertigten Containern für Frameworks für maschinelles Lernen verwenden.
SageMaker AMTkann eine Amazon EC2 Spot-Instance verwenden, um die Kosten bei der Ausführung von Trainingsjobs zu optimieren. Weitere Informationen finden Sie unter Verwaltetes Spot-Training bei Amazon SageMaker.
Bevor Sie die Hyperparameter-Optimierung verwenden, sollte ein eindeutig definiertes Machine-Learning-Problem vorliegen, darunter:
-
Ein Datensatz
-
Verständnis für die Art des Algorithmus, den Sie trainieren müssen
-
Eine klare Vorstellung davon, wie Erfolg ermittelt wird
Bereiten Sie Ihren Datensatz und Ihren Algorithmus so vor, dass sie in einem Trainingsjob funktionieren SageMaker und ihn mindestens einmal erfolgreich ausführen. Weitere Informationen zum Einrichten und Ausführen eines Trainingsauftrags finden Sie unter Leitfaden zur Einrichtung bei Amazon SageMaker.
Themen
- Machen Sie sich mit den bei Amazon verfügbaren Strategien zur Hyperparameter-Optimierung vertraut SageMaker
- Definieren Sie Metriken und Umgebungsvariablen
- Definieren von Hyperparameter-Bereichen
- Verfolgen Sie die Abschlusskriterien für Ihren Tuning-Job und legen Sie sie fest
- Optimieren Sie mehrere Algorithmen mit Hyperparameter-Optimierung, um das beste Modell zu finden
- Beispiel: Hyperparameter-Optimierungsauftrag
- Vorzeitiges Beenden von Trainingsaufträgen
- Durchführen eines Hyperparameter-Optimierungsauftrags mit Warmstart
- Ressourcenbegrenzungen für die automatische Modellabstimmung
- Bewährte Methoden für die Hyperparameter-Optimierung