Führen Sie eine automatische Modelloptimierung durch mit SageMaker - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Führen Sie eine automatische Modelloptimierung durch mit SageMaker

Amazon SageMaker Automatic Model Tuning, auch bekannt als Hyperparameter-Tuning, findet die beste Version eines Modells, indem viele Trainingsjobs an Ihrem Datensatz ausgeführt werden. Dabei werden der von Ihnen angegebene Algorithmus und die Hyperparameterbereiche verwendet. Anschließend werden die Hyperparameter-Werte ausgewählt, die ein Modell ergeben, das gemessen an einer von Ihnen ausgewählten Metrik die beste Leistung erzielt.

Angenommen, Sie möchten ein Problem mit der binären Klassifizierung auf einem Marketing-Dataset lösen. Ihr Ziel ist es, die Metrik für die Fläche unter der Kurve (AUC) des Algorithmus durch Schulung eines XGBoost-Algorithmus-Modells zu maximieren. Sie wissen nicht, welche Werte für die Hyperparameter eta, alpha, min_child_weight und max_depth zur Schulung des besten Modells verwendet werden müssen. Um die besten Werte für diese Hyperparameter zu finden, können Sie Wertebereiche angeben, nach denen das SageMaker Hyperparameter-Tuning sucht, um die Wertekombination zu finden, die zu dem Trainingsjob führt, der gemessen an der ausgewählten Zielmetrik am besten abschneidet. Bei der Hyperparameter-Optimierung werden Schulungsaufträge gestartet, die Hyperparameter-Werte in den von Ihnen festgelegten Bereichen verwenden, und der Schulungsauftrag mit der höchsten AUC wird ausgegeben.

Sie können die SageMaker automatische Modelloptimierung mit integrierten Algorithmen, benutzerdefinierten Algorithmen und SageMaker vorgefertigten Containern für Machine-Learning-Frameworks verwenden.

Die SageMaker automatische Modelloptimierung von Amazon kann die Amazon EC2 Spot-Instance verwenden, um die Kosten bei der Ausführung von Trainingsaufträgen zu optimieren. Weitere Informationen zum Managed Spot-Training finden Sie unterVerwaltetes Spot-Training bei Amazon SageMaker.

Bevor Sie die Hyperparameter-Optimierung verwenden, sollte ein eindeutig definiertes Machine Learning-Problem vorliegen, darunter:

  • Ein Dataset

  • Das Wissen, welche Art von Algorithmus geschult werden muss

  • Eine klare Vorstellung davon, wie Erfolg ermittelt wird

Sie sollten auch Ihren Datensatz und Ihren Algorithmus so vorbereiten, dass sie mindestens einmal in einem Trainingsjob funktionieren SageMaker und ihn erfolgreich ausführen. Weitere Informationen zum Einrichten und Ausführen eines Schulungsauftrags finden Sie unter Starten Sie mit Amazon SageMaker.