Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Exemples et informations supplémentaires : utilisez votre propre algorithme ou modèle

Mode de mise au point
Exemples et informations supplémentaires : utilisez votre propre algorithme ou modèle - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les blocs-notes Jupyter suivants et les informations supplémentaires indiquent comment utiliser vos propres algorithmes ou des modèles préentraînés à partir d'une instance de bloc-notes Amazon. SageMaker Pour obtenir des liens vers les GitHub référentiels contenant les Dockerfiles prédéfinis pour le TensorFlow, Chainer et les PyTorch frameworks MXNet, ainsi que des instructions sur l'utilisation des AWS SDK pour Python (Boto3) estimateurs pour exécuter vos propres algorithmes d'entraînement sur SageMaker AI Learner et vos propres modèles sur l'hébergement AI, voir SageMaker Images SageMaker AI Docker prédéfinies pour le deep learning

Configuration

  1. Créez une instance de SageMaker bloc-notes. Pour obtenir les instructions permettant de créer des instances de bloc-notes Jupyter et d'y accéder, consultez Instances Amazon SageMaker Notebook.

  2. Ouvrez l'instance de blocs-notes que vous avez créée.

  3. Choisissez l'onglet Exemples d'SageMaker IA pour obtenir la liste de tous les blocs-notes d'exemples d' SageMaker IA.

  4. Ouvrez les exemples de blocs-notes depuis la section Fonctionnalités avancées de votre instance de bloc-notes ou GitHub en utilisant les liens fournis. Pour ouvrir un bloc-notes, choisissez l'onglet Use (Utiliser) correspondant, puis Create copy (Créer une copie).

Hébergement de modèles entraînés dans Scikit-learn

Pour savoir comment héberger des modèles formés à Scikit-learn pour faire des prédictions en SageMaker intelligence artificielle en les injectant dans des k-means et des XGBoost conteneurs propriétaires, consultez les exemples de blocs-notes suivants.

Package TensorFlow et modèles Scikit-learn à utiliser dans l'IA SageMaker

Pour savoir comment empaqueter les algorithmes que vous avez développés dans TensorFlow les frameworks Scikit-Learn pour la formation et le déploiement dans l'environnement d' SageMaker IA, consultez les blocs-notes suivants. Ils vous expliquent comment créer, enregistrer et déployer vos propres conteneurs Docker à l'aide de Dockerfiles.

Entraînez et déployez un réseau neuronal sur l' SageMaker IA

Pour savoir comment entraîner un réseau neuronal localement à l'aide de MXNet ou TensorFlow, puis créer un point de terminaison à partir du modèle entraîné et le déployer sur l' SageMaker IA, consultez les blocs-notes suivants. Le MXNet modèle est entraîné pour reconnaître les nombres écrits à la main dans le jeu de données MNIST. Le TensorFlow modèle est formé pour classer les iris.

Entraînement en mode Pipe

Pour apprendre à utiliser un fichier Dockerfile pour générer un conteneur qui appelle le train.py script et qui utilise le mode Pipe pour entraîner de façon personnalisée un algorithme, consultez le bloc-notes suivant. En mode Pipe, les données d'entrée sont transférées à l'algorithme pendant sa formation. Cela peut diminuer la durée de l'entraînement par rapport à l'utilisation du mode File.

Apport de votre propre modèle R

Pour découvrir comment utiliser l'ajout d'une image R personnalisée pour créer et entraîner un modèle dans un bloc-notes AWS SMS , consultez le billet de blog suivant. Ce billet de blog utilise un exemple de Dockerfile R issu d'une bibliothèque d'exemples d'images personnalisées SageMaker AI Studio Classic.

Extension d'une image de PyTorch conteneur prédéfinie

Pour savoir comment étendre une image de PyTorch conteneur SageMaker AI prédéfinie lorsque vous avez des exigences fonctionnelles supplémentaires pour votre algorithme ou votre modèle que l'image Docker prédéfinie ne prend pas en charge, consultez le bloc-notes suivant.

Pour plus d'informations sur l'extension d'un conteneur, consultez Extension d'un conteneur préconçu.

Entraînement et débogage des tâches d'entraînement sur un conteneur personnalisé

Pour savoir comment entraîner et déboguer des tâches de formation à l'aide de SageMaker Debugger, consultez le bloc-notes suivant. Un script d'entraînement fourni dans cet exemple utilise le modèle TensorFlow Keras ResNet 50 et le jeu de données CIFAR1 0. Un conteneur personnalisé Docker est créé avec le script d'entraînement, puis transmis à Amazon ECR. Pendant que la tâche d'entraînement s'exécute, Debugger collecte les sorties des tenseurs et identifie les problèmes de débogage. Avec les outils de la bibliothèque client smdebug, vous pouvez définir un objet test smdebug qui appelle la tâche d'entraînement et les informations de débogage, vérifie l'état de l'entraînement et de la règle de débogage, et récupère les tenseurs enregistrés dans un compartiment Amazon S3 afin d'analyser les problèmes d'entraînement.

ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.