Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Exécutez un travail de formation SageMaker distribué avec Model Parallelism

Mode de mise au point
Exécutez un travail de formation SageMaker distribué avec Model Parallelism - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Apprenez à exécuter une tâche d'entraînement parallèle à un modèle à partir de votre propre script d'entraînement à l'aide du SDK SageMaker Python associé à la bibliothèque de parallélisme des SageMaker modèles.

Il existe trois scénarios d'utilisation pour exécuter une tâche de SageMaker formation.

  1. Vous pouvez utiliser l'un des conteneurs d'apprentissage AWS profond prédéfinis pour TensorFlow et PyTorch. Cette option est recommandée si c'est la première fois que vous utilisez la bibliothèque de parallélisme de modèles. Pour trouver un didacticiel expliquant comment exécuter une tâche d'entraînement parallèle sur des SageMaker modèles, consultez les exemples de carnets de notes présentés lors de l'PyTorch entraînement avec la bibliothèque de parallélisme de modèles d'Amazon SageMaker AI.

  2. Vous pouvez étendre les conteneurs prédéfinis pour gérer toute exigence fonctionnelle supplémentaire pour votre algorithme ou modèle que l'image SageMaker Docker prédéfinie ne prend pas en charge. Pour apprendre comment étendre un conteneur préconçu, consultez Extension d'un conteneur préconçu.

  3. Vous pouvez adapter votre propre conteneur Docker pour qu'il fonctionne avec l' SageMaker IA à l'aide de la boîte à outils de SageMaker formation. Pour obtenir un exemple, consultez Adaptation de votre propre conteneur d'entraînement.

Pour les options 2 et 3 de la liste précédente, consultez Étendre un conteneur Docker prédéfini qui contient SageMaker la bibliothèque parallèle de modèles distribués pour savoir comment installer la bibliothèque de modèles parallèles dans un conteneur Docker étendu ou personnalisé.

Dans tous les cas, vous lancez votre tâche de formation en configurant un PyTorch estimateur SageMaker TensorFlow ou un estimateur pour activer la bibliothèque. Pour en savoir plus, consultez les rubriques suivantes.

ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.