Come eseguire un processo di formazione distribuito con la libreria di parallelismo dei dati SageMaker distribuiti - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Come eseguire un processo di formazione distribuito con la libreria di parallelismo dei dati SageMaker distribuiti

La libreria SageMaker Distributed Data Parallelism (SMDDP) è progettata per essere facile da usare e per fornire una perfetta integrazione con. PyTorch

Quando si addestra un modello di deep learning con la libreria SMDDP attiva SageMaker, è possibile concentrarsi sulla stesura dello script di addestramento e sulla formazione del modello.

Per iniziare, importa la libreria SMDDP per utilizzarne le operazioni collettive ottimizzate. AWS I seguenti argomenti forniscono istruzioni su cosa aggiungere allo script di allenamento a seconda dell'operazione collettiva che si desidera ottimizzare.