(Archivé) bibliothèque de parallélisme de SageMaker modèles v1.x - Amazon SageMaker

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

(Archivé) bibliothèque de parallélisme de SageMaker modèles v1.x

Important

Le 19 décembre 2023, la bibliothèque de parallélisme des SageMaker modèles (SMP) v2 est publiée. En faveur de la bibliothèque SMP v2, les fonctionnalités SMP v1 ne sont plus prises en charge dans les futures versions. La section et les rubriques suivantes sont archivées et spécifiques à l'utilisation de la bibliothèque SMP v1. Pour plus d'informations sur l'utilisation de la bibliothèque SMP v2, consultezSageMaker bibliothèque de parallélisme de modèles v2.

Utilisez SageMaker la bibliothèque model parallel d'Amazon pour entraîner de grands modèles d'apprentissage profond (DL) difficiles à entraîner en raison des limites de mémoire du GPU. La bibliothèque divise un modèle automatiquement et efficacement sur plusieurs GPU et instances. À l'aide de la bibliothèque, vous pouvez obtenir une précision de prédiction cible plus rapidement en entraînant efficacement des modèles DL plus volumineux avec des milliards ou des trillions de paramètres.

Vous pouvez utiliser la bibliothèque pour partitionner automatiquement les vôtres TensorFlow et les PyTorch modèles sur plusieurs GPU et plusieurs nœuds avec un minimum de modifications de code. Vous pouvez accéder à l'API de la bibliothèque via le SDK SageMaker Python.

Consultez les sections suivantes pour en savoir plus sur le parallélisme des modèles et la bibliothèque de modèles SageMaker parallèles. La documentation des API de cette bibliothèque se trouve dans la section API de formation distribuée de la documentation du SDK SageMaker Python v2.199.0.