Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Come eseguire un processo di formazione distribuito con la libreria di parallelismo dei dati SageMaker distribuiti
La libreria SageMaker Distributed Data Parallelism (SMDDP) è progettata per essere facile da usare e per fornire una perfetta integrazione con. PyTorch
Quando si addestra un modello di deep learning con la libreria SMDDP attiva SageMaker, è possibile concentrarsi sulla stesura dello script di addestramento e sulla formazione del modello.
Per iniziare, importa la libreria SMDDP per utilizzarne le operazioni collettive ottimizzate. AWS I seguenti argomenti forniscono istruzioni su cosa aggiungere allo script di allenamento a seconda dell'operazione collettiva che si desidera ottimizzare.