So führen Sie einen verteilten Trainingsjob mit der Bibliothek für SageMaker verteilte Datenparallelität aus - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

So führen Sie einen verteilten Trainingsjob mit der Bibliothek für SageMaker verteilte Datenparallelität aus

Die Bibliothek für SageMaker verteilte Datenparallelität (SMDDP) wurde so konzipiert, dass sie benutzerfreundlich ist und eine nahtlose Integration mit ermöglicht. PyTorch

Wenn Sie ein Deep-Learning-Modell mit aktivierter SMDDP-Bibliothek trainieren, können Sie sich darauf konzentrieren SageMaker, Ihr Trainingsskript zu schreiben und das Training zu modellieren.

Importieren Sie zunächst die SMDDP-Bibliothek, um ihre kollektiven Operationen zu verwenden, für die sie optimiert sind. AWS Die folgenden Themen enthalten Anweisungen dazu, was Sie Ihrem Trainingsskript hinzufügen müssen, je nachdem, welchen kollektiven Vorgang Sie optimieren möchten.