Trainieren eines Modells mit Amazon SageMaker - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Trainieren eines Modells mit Amazon SageMaker

Das folgende Diagramm veranschaulicht, wie Sie ein Modell schulen und bereitstellenmit Amazon SageMaker:

Der Bereich mit der Bezeichnung SageMaker unterstreicht die beiden Komponenten von SageMaker: Modellschulung und Modellbereitstellung.

Um ein Modell in SageMaker zu schulen, erstellen Sie einen Schulungsauftrag. Der Schulungsauftrag enthält die folgenden Informationen:

  • Die URL des Amazon Simple Storage Service (Amazon S3) -Buckets, in dem die Schulungsdaten gespeichert sind.

  • Die Datenverarbeitungsressourcen, die Sie wünschen SageMaker für Modelltraining zu verwenden. Beim Datenverarbeitungsressourcen handelt es sich um von SageMaker verwaltete ML-Compute-Instances.

  • Die URL des S3-Buckets, in dem die Ausgabe des Schulungsauftrags gespeichert werden soll.

  • Der Amazon Elastic Container-Registry-Pfad, unter dem der Schulungscode gespeichert ist. Weitere Informationen finden Sie unter Docker-Registrierungspfade und Beispielcode.

Bei einem Schulungsalgorithmus können Sie aus folgenden Optionen auswählen:

Nachdem Sie den Trainingsjob erstellt haben, SageMaker Startet die ML-Compute-Instances und verwendet den Schulungscode sowie das Schulungsdataset, um das Modell zu schulen. Die resultierenden Modellartefakte und andere Ausgaben werden in dem S3-Bucket gespeichert, den Sie dafür angegeben haben.

Sie können einen Schulungsauftrag mit der SageMaker -Konsole oder die API. Informationen zum Erstellen eines Schulungsauftrags mit der API finden Sie in der CreateTrainingJob-API.

Wenn Sie einen Schulungsauftrag mit der API erstellen, SageMaker repliziert das gesamte Dataset standardmäßig auf ML-Compute-Instances. Um zu machen SageMaker Eine Teilmenge der Daten auf jede ML-Compute-Instance repliziert, müssen Sie dieS3DataDistributionTypefield zuShardedByS3Keyaus. Sie können dieses Feld mithilfe des Low-Level-SDKs festlegen. Weitere Informationen finden Sie unter S3DataDistributionType in S3DataSource.

Wichtig

Um zu verhindern, dass Ihr Algorithmus-Container um Arbeitsspeicher konkurriert, reservieren wir Speicher für unsere SageMaker Kritische Prozesse auf Ihren ML-Compute-Instances und daher können Sie nicht erwarten, dass der gesamte Arbeitsspeicher für Ihren Instance-Typ angezeigt wird.