Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Les blocs-notes Jupyter suivants et les informations supplémentaires indiquent comment utiliser vos propres algorithmes ou des modèles préentraînés à partir d'une instance de bloc-notes Amazon. SageMaker Pour obtenir des liens vers les GitHub référentiels contenant les Dockerfiles prédéfinis pour le TensorFlow, Chainer et les PyTorch frameworks MXNet, ainsi que des instructions sur l'utilisation des AWS SDK pour Python (Boto3) estimateurs pour exécuter vos propres algorithmes d'entraînement sur SageMaker AI Learner et vos propres modèles sur l'hébergement AI, voir SageMaker Images SageMaker AI Docker prédéfinies pour le deep learning
Configuration
-
Créez une instance de SageMaker bloc-notes. Pour obtenir les instructions permettant de créer des instances de bloc-notes Jupyter et d'y accéder, consultez Instances Amazon SageMaker Notebook.
-
Ouvrez l'instance de blocs-notes que vous avez créée.
-
Choisissez l'onglet Exemples d'SageMaker IA pour obtenir la liste de tous les blocs-notes d'exemples d' SageMaker IA.
-
Ouvrez les exemples de blocs-notes depuis la section Fonctionnalités avancées de votre instance de bloc-notes ou GitHub en utilisant les liens fournis. Pour ouvrir un bloc-notes, choisissez l'onglet Use (Utiliser) correspondant, puis Create copy (Créer une copie).
Hébergement de modèles entraînés dans Scikit-learn
Pour savoir comment héberger des modèles formés à Scikit-learn pour faire des prédictions en SageMaker intelligence artificielle en les injectant dans des k-means et des XGBoost conteneurs propriétaires, consultez les exemples de blocs-notes suivants.
Package TensorFlow et modèles Scikit-learn à utiliser dans l'IA SageMaker
Pour savoir comment empaqueter les algorithmes que vous avez développés dans TensorFlow les frameworks Scikit-Learn pour la formation et le déploiement dans l'environnement d' SageMaker IA, consultez les blocs-notes suivants. Ils vous expliquent comment créer, enregistrer et déployer vos propres conteneurs Docker à l'aide de Dockerfiles.
Entraînez et déployez un réseau neuronal sur l' SageMaker IA
Pour savoir comment entraîner un réseau neuronal localement à l'aide de MXNet ou TensorFlow, puis créer un point de terminaison à partir du modèle entraîné et le déployer sur l' SageMaker IA, consultez les blocs-notes suivants. Le MXNet modèle est entraîné pour reconnaître les nombres écrits à la main dans le jeu de données MNIST. Le TensorFlow modèle est formé pour classer les iris.
Entraînement en mode Pipe
Pour apprendre à utiliser un fichier Dockerfile pour générer un conteneur qui appelle le train.py script
et qui utilise le mode Pipe pour entraîner de façon personnalisée un algorithme, consultez le bloc-notes suivant. En mode Pipe, les données d'entrée sont transférées à l'algorithme pendant sa formation. Cela peut diminuer la durée de l'entraînement par rapport à l'utilisation du mode File.
Apport de votre propre modèle R
Pour découvrir comment utiliser l'ajout d'une image R personnalisée pour créer et entraîner un modèle dans un bloc-notes AWS SMS
, consultez le billet de blog suivant. Ce billet de blog utilise un exemple de Dockerfile R issu d'une bibliothèque d'exemples d'images personnalisées SageMaker AI Studio Classic
Extension d'une image de PyTorch conteneur prédéfinie
Pour savoir comment étendre une image de PyTorch conteneur SageMaker AI prédéfinie lorsque vous avez des exigences fonctionnelles supplémentaires pour votre algorithme ou votre modèle que l'image Docker prédéfinie ne prend pas en charge, consultez le bloc-notes suivant.
Pour plus d'informations sur l'extension d'un conteneur, consultez Extension d'un conteneur préconçu.
Entraînement et débogage des tâches d'entraînement sur un conteneur personnalisé
Pour savoir comment entraîner et déboguer des tâches de formation à l'aide de SageMaker Debugger, consultez le bloc-notes suivant. Un script d'entraînement fourni dans cet exemple utilise le modèle TensorFlow Keras ResNet 50 et le jeu de données CIFAR1 0. Un conteneur personnalisé Docker est créé avec le script d'entraînement, puis transmis à Amazon ECR. Pendant que la tâche d'entraînement s'exécute, Debugger collecte les sorties des tenseurs et identifie les problèmes de débogage. Avec les outils de la bibliothèque client smdebug
, vous pouvez définir un objet test smdebug
qui appelle la tâche d'entraînement et les informations de débogage, vérifie l'état de l'entraînement et de la règle de débogage, et récupère les tenseurs enregistrés dans un compartiment Amazon S3 afin d'analyser les problèmes d'entraînement.