Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
So führen Sie einen verteilten Trainingsjob mit der Bibliothek für SageMaker verteilte Datenparallelität aus
Die Bibliothek für SageMaker verteilte Datenparallelität (SMDDP) wurde so konzipiert, dass sie benutzerfreundlich ist und eine nahtlose Integration mit ermöglicht. PyTorch
Wenn Sie ein Deep-Learning-Modell mit aktivierter SMDDP-Bibliothek trainieren, können Sie sich darauf konzentrieren SageMaker, Ihr Trainingsskript zu schreiben und das Training zu modellieren.
Importieren Sie zunächst die SMDDP-Bibliothek, um ihre kollektiven Operationen zu verwenden, für die sie optimiert sind. AWS Die folgenden Themen enthalten Anweisungen dazu, was Sie Ihrem Trainingsskript hinzufügen müssen, je nachdem, welchen kollektiven Vorgang Sie optimieren möchten.