SageMaker JumpStart - Amazon SageMaker

SageMaker JumpStart

SageMaker JumpStart fournit des modèles open-source pré-entraînés pour un large éventail de types de problèmes afin de vous aider à démarrer avec le machine learning. Vous pouvez entraîner et ajuster ces modèles de manière incrémentielle avant le déploiement. JumpStart fournit également des modèles de solutions qui mettent en place une infrastructure pour les cas d'utilisation courants, ainsi que des blocs-notes d'exemples exécutables pour le machine learning avec SageMaker.

Vous pouvez accéder aux modèles pré-entraînés, aux modèles de solutions et aux exemples via la page de destination JumpStart dans Amazon SageMaker Studio. Les étapes suivantes montrent comment accéder aux modèles et solutions JumpStart à l'aide de Amazon SageMaker Studio.

Vous pouvez également accéder aux modèles à l'aide du kit SDK Python de SageMaker. Pour obtenir plus d'informations sur l'utilisation programmatique des modèles JumpStart via l'API, consultez la rubrique Use SageMaker JumpStart Algorithms with Pretrained Models (Utiliser les algorithmes JumpStart de SageMaker avec les modèles pré-entraînés).

Ouvrir JumpStart

Dans Amazon SageMaker Studio, ouvrez JumpStart en utilisant l'une des méthodes suivantes :

  • Le lanceur JumpStart dans la section Get Started (Commencer).

  • L'icône JumpStart ( 
          The JumpStart icon.
        ) dans la barre latérale gauche.

  • Le bouton Browse JumpStart (Parcourir JumpStart) dans le volet des ressources lancées.


          Interface de SageMaker Studio avec JumpStart Launcher (Lanceur JumpStart), l'icône JumpStart et le bouton Browse JumpStart (Parcourir JumpStart).
Important

Avant de télécharger ou d'utiliser un contenu tiers : vous êtes tenu d'examiner et de respecter les conditions de licence applicables et de vous assurer qu'elles sont acceptables pour votre cas d'utilisation.

Utilisation de JumpStart

À partir de la page d'accueil de SageMaker JumpStart, vous pouvez rechercher des solutions, des modèles, des blocs-notes et d'autres ressources. Vous pouvez également consulter vos solutions, points de terminaison et tâches d'entraînement en cours. En utilisant la barre de recherche de JumpStart, vous pouvez rechercher les rubriques qui vous intéressent.


      The SageMaker JumpStart landing page with search bar and autosuggest options.

Vous pouvez trouver des ressources JumpStart en utilisant la recherche, ou en parcourant chaque catégorie qui suit le panneau de recherche :

  • Featured (En vedette) — les solutions, modèles et exemples les plus récents ou les plus utilisés.

  • Solutions – en une seule étape, lancez des solutions complètes de machine learning qui relient SageMaker à d'autres services AWS. Sélectionnez Explore All Solutions (Explorer toutes les solutions) pour afficher toutes les solutions disponibles.

  • Models (Modèles) – trouvez un modèle qui correspond à vos besoins parmi la collection de modèles textuels, visuels et tabulaires. Vous pouvez filtrer la collection par types de problèmes, types de données et frameworks. Ensuite, déployez et affinez des modèles pré-entraînés pour la classification d'images et la détection d'objets en une seule étape. Sélectionnez Explore All Models (Explorer tous les modèles) pour afficher tous les modèles disponibles.

  • Resources (Ressources) – utilisez des blocs-notes d'exemples, des blogs et des tutoriels vidéo pour apprendre et vous lancer dans la résolution de vos types de problèmes.

    • Example notebooks (Exemples de blocs-notes) – exécutez des exemples de blocs-notes qui utilisent des fonctions SageMaker telles que l'entraînement sur les instances Spot et les expériences sur une grande variété de types de modèles et de cas d'utilisation.

    • Blogs – lisez les détails et les solutions des experts en machine learning, hébergés par Amazon.

    • Video tutorials (Tutoriels vidéo) – regardez des didacticiels vidéo sur les fonctions de SageMaker et les cas d'utilisation du machine learning par des experts du machine learning hébergés par Amazon.

Modèles de solutions

À partir de la page de destination de JumpStart, obtenez des modèles de solutions qui mettent en place l'infrastructure complète pour les cas d'utilisation courants.

Lorsque vous choisissez un modèle de solution, JumpStart affiche une description de la solution et un bouton Launch (Lancer). Lorsque vous choisissez Launch (Lancer), JumpStart crée toutes les ressources dont vous avez besoin pour exécuter la solution. Cela inclut les instances d'entraînement et d'hébergement de modèles.

Après le lancement de la solution JumpStart, JumpStart affiche un bouton Open Notebook (Ouvrir le bloc-notes). Cliquez sur le bouton pour utiliser les blocs-notes fournis et explorer les fonctions de la solution. Lorsque des artefacts sont générés, pendant le lancement ou après l'exécution des blocs-notes fournis, ils sont répertoriés dans le tableau Generated Artifacts (Artefacts générés). Vous pouvez supprimer des artefacts individuels à l'aide de l'icône Corbeille ( 
          The trash icon for JumpStart.
        ). Vous pouvez supprimer toutes les ressources de la solution en choisissant Delete solution resources (Supprimer les ressources de la solution).

Voici la liste complète des modèles de solutions disponibles :

Cas d'utilisation Nom de la solution Description Premiers pas
Prédiction de séries temporelles Prédiction de la demande Prédiction de la demande pour des données de séries temporelles multivariées à l'aide de trois algorithmes de prédiction de séries temporelles à la pointe de la technologie : LSTNet, Prophet et SageMaker DeepAR.

GitHub

Prédiction de la cote de crédit Prédiction de la cote de crédit des entreprises Machine learning multimodal (texte long et tabulaire) pour les prédictions de crédit de qualité en utilisant AWS AutoGluon Tabular. GitHub
Cote de crédit basée sur des graphiques Prédisez les cotes de crédit des entreprises à l'aide de données tabulaires et d'un réseau d'entreprise en entraînant un modèle Graph Neural Network GraphSAGE (GraphSAGE de réseau neuronal graphique) et AWS AutoGluon Tabular. Disponible dans Amazon SageMaker Studio.
Expliquer les décisions de crédit Prédisez le défaut de paiement dans les demandes de crédit et fournissez des explications en utilisant LightGBM et SHAP (SHapley Additive exPlanations).

GitHub

Extraire et analyser les données des documents Confidentialité pour la classification des sentiments Anonymisez le texte pour mieux préserver la vie privée des utilisateurs dans la classification des sentiments.

GitHub

Résumé de documents, extraction d'entités et de relations Résumé de documents, extraction d'entités et de relations en utilisant la bibliothèque de transformateurs dans PyTorch.

GitHub

Reconnaissance de l'écriture manuscrite Reconnaîssez du texte manuscrit dans des images en entraînant un modèle de détection d'objets et un modèle de reconnaissance de l'écriture manuscrite. Étiquetez vos propres données à l'aide de SageMaker Ground Truth. GitHub
Remplissage des valeurs manquantes dans les enregistrements tabulaires Remplissez les valeurs manquantes dans les enregistrements tabulaires en entraînant un modèle SageMaker AutoPilot.

GitHub

Détection des fraudes Détectez les utilisateurs et les transactions malveillants Détectez automatiquement les activités potentiellement frauduleuses dans les transactions à l'aide de SageMaker XGBoost avec la technique Synthetic Minority Over-sampling (Suréchantillonnage des minorités synthétiques), ou SMOTE.

GitHub

Détection des fraudes dans les transactions financières à l'aide d'une bibliothèque de graphes profonds Détectez la fraude dans les transactions financières en entraînant un réseau convolutif de graphes avec la bibliothèque de graphes profonds et un modèle SageMaker XGBoost.

GitHub

Maintenance prédictive Maintenance prédictive pour les flottes de véhicules Prévoyez les défaillances d'une flotte de véhicules à l'aide de capteurs et d'informations sur la maintenance des véhicules, avec un modèle de réseau neuronal convolutif.

GitHub

Maintenance prédictive pour la fabrication Prédire la durée de vie utile restante pour chaque capteur en entraînant un modèle stacked Bidirectional LSTM neural network (Réseau neuronal LSTM bidirectionnel empilé) à l'aide des relevés historiques des capteurs.

GitHub

Reconnaissance d'image Détection des défauts de produits dans les images Identifiez les régions défectueuses dans les images de produits par l'entraînement d'un modèle de détection d'objets.

GitHub

Prédiction du taux de désabonnement Prédiction du taux de désabonnement grâce au texte Prédisez le taux de désabonnement en utilisant des fonctionnalités numériques, catégorielles et textuelles avec l'encodeur BERT et RandomForestClassifier.

GitHub

Recommandations personnalisées Résolution d'entités dans les graphes d'identité avec la bibliothèque de graphes profonds Établissez des liens entre les appareils pour la publicité en ligne en entraînant un réseau convolutif de graphes avec une bibliothèque de graphes profonds.

GitHub

Modélisation d'achat Prédisez si un client effectuera un achat en entraînant un modèle SageMaker XGBoost.

GitHub

Apprentissage par renforcement Apprentissage par renforcement pour les concours d'IA Battlesnake Fournissez un flux de travail d'apprentissage par renforcement pour l'entraînement et l'inférence avec les concours d'IA BattleSnake.

GitHub

Apprentissage par renforcement distribué pour le défi Procgen Kit de démarrage d'apprentissage par renforcement distribué pour le défi d'apprentissage par renforcement NeurIPS 2020 Procgen. GitHub

Modèles

JumpStart prend en charge des modèles pour quinze des types de problèmes les plus courants. Parmi les types de problèmes pris en charge, les types liés à la vision et à au PNL sont au nombre de treize. Il existe huit types de problèmes qui permettent un entraînement progressif et un réglage fin. Pour obtenir plus d'informations sur l'entraînement incrémentiel et le réglage des hyperparamètres, consultez la rubrique SageMaker Automatic Model Tuning (Réglage automatique des modèles de SageMaker). JumpStart prend également en charge quatre algorithmes populaires de modélisation des données tabulaires.

Vous pouvez rechercher et parcourir les modèles à partir de la page de destination de JumpStart dans Studio. Lorsque vous sélectionnez un modèle, la page de détails du modèle fournit des informations sur le modèle et vous pouvez entraîner et déployer votre modèle en quelques étapes. La section de description décrit ce que vous pouvez faire avec le modèle, les types d'entrées et de sorties attendus, et le type de données nécessaire pour affiner votre modèle.

Vous pouvez également utiliser les modèles de manière programmée avec le kit SDK Python de SageMaker.

La liste des types de problèmes et les liens vers leurs exemples de bloc-notes Jupyter sont résumés dans le tableau suivant. Pour obtenir une liste complète des modèles JumpStart, consultez JumpStart Available Model Table (Tableau des modèles disponibles JumpStart).

Types de problèmes Prise en charge de l'inférence avec des modèles pré-entraînés Entraînable sur un jeu de données personnalisé Frameworks pris en charge Exemples de blocs-notes
Image classification Oui Oui

PyTorch, TensorFlow

Introduction à JumpStart — Classification des images

Détection d'objets Oui Oui PyTorch, TensorFlow, MXNet

Introduction à JumpStart — Détection d'objets

Segmentation sémantique Oui Oui MXNet

Introduction à JumpStart — Segmentation sémantique

Segmentation d'instances Oui Oui MXNet

Introduction à JumpStart — Segmentation d'instance

Intégration d'images Oui Non TensorFlow, MXNet

Introduction à JumpStart — Intégration d'images

Classification de texte Oui Oui TensorFlow

Introduction à JumpStart — Classification de texte

Classification des paires de phrases Oui Oui TensorFlow, Hugging Face

Introduction à JumpStart — Classification des paires de phrases

Réponse aux questions Oui Oui PyTorch

Introduction à JumpStart — Réponse aux questions

Reconnaissance des entités nommées (NER) Oui Non Hugging Face

Introduction à JumpStart — Reconnaissance des entités nommées

Synthèse de texte Oui Non Hugging Face

Introduction à JumpStart — Synthèse de texte

Génération de texte Oui Non Hugging Face

Introduction à JumpStart — Génération de texte

Algorithme de traduction Oui Non Hugging Face

Introduction à JumpStart — Traduction automatique

Intégration de texte Oui Non TensorFlow, MXNet

Introduction à JumpStart — Intégration de texte

Classification tabulaire Oui Oui LightGBM, CatBoost, XGBoost, Linear Learner

Introduction à JumpStart — Classification tabulaire — LightGBM, CatBoost

Introduction à JumpStart — Classification tabulaire — XGBoost, Linear Learner

Régression tabulaire Oui Oui LightGBM, CatBoost, XGBoost, Linear Learner

Introduction à JumpStart — Régression tabulaire — LightGBM, CatBoost

Introduction à JumpStart — Régression tabulaire — XGBoost, Linear Learner

Déploiement d'un modèle

Lorsque vous déployez un modèle à partir de JumpStart, SageMaker héberge le modèle et déploie un point de terminaison que vous pouvez utiliser pour l'inférence. JumpStart fournit également un exemple de bloc-notes que vous pouvez utiliser pour accéder au modèle après son déploiement.

Configuration du déploiement de modèle

Une fois que vous avez choisi un modèle, le panneau Deploy model (Déployer le modèle) s'ouvre. Choisissez Deployment Configuration (Configuration du déploiement) pour configurer le déploiement de votre modèle.


          Deploy Model pane option to open settings for Deployment Configuration and Security Settings.

La valeur par défaut Instance type (Type d'instance) pour déployer un modèle dépend du modèle. Le type d'instance est le matériel sur lequel la tâche d'entraînement s'exécute. Dans l'exemple suivant, l'instance ml.g4dn.xlarge est la valeur par défaut pour ce modèle BERT particulier.

Vous pouvez également modifier le nom du point de terminaison.


          JumpStart Deploy Model pane with Deployment Configuration open to select its
            settings.

Choisissez Security Settings (Paramètres de sécurité) pour spécifier le rôle (IAM) AWS Identity and Access Management, Amazon Virtual Private Cloud (Amazon VPC) et les clés de chiffrement pour le modèle.


          JumpStart Deploy Model pane with Security Settings open to select its
            settings.

Sécurité du déploiement de modèle

Lorsque vous déployez un modèle avec JumpStart, vous pouvez spécifier un rôle IAM, un VPC Amazon et des clés de chiffrement pour le modèle. Si vous ne spécifiez aucune valeur pour ces entrées : le rôle IAM par défaut est le rôle d'exécution de Your Studio (Votre Studio) ; le chiffrement par défaut est utilisé ; aucun VPC Amazon n'est utilisé.

Rôle IAM

Vous pouvez sélectionner un rôle IAM transmis dans le cadre des tâches d'entraînement et d'hébergement. SageMaker utilise ce rôle pour accéder aux données d'entraînement et aux artefacts de modèle. Si vous ne sélectionnez pas de rôle IAM, SageMaker déploie le modèle en utilisant votre rôle d'exécution Studio. Pour plus d'informations sur les rôles IAM, consultez Identity and Access Management pour Amazon SageMaker.

Le rôle que vous transmettez doit avoir accès aux ressources dont le modèle a besoin et doit inclure tous les éléments suivants.

Note

Vous pouvez examiner les autorisations Amazon S3 accordées dans chacun des rôles suivants. Pour ce faire, utilisez le nom de ressource Amazon (ARN) de votre compartiment Amazon Simple Storage Service (Amazon S3) et le compartiment Amazon S3 de JumpStart.

{ "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListMultipartUploadParts" ], "Resources": [ "arn:aws:s3:<region>::bucket/jumpstart-cache-prod-<region>/*", "arn:aws:s3:<region>:<account>:bucket/*", ] },{ "Effect": "Allow", "Action": [ "s3:ListBucket", ], "Resources": [ "arn:aws:s3:<region>::bucket/jumpstart-cache-prod-<region>", "arn:aws:s3:<region>:<account>:bucket", ]

Trouver le rôle IAM

Si vous choisissez cette option, vous devez sélectionner un rôle IAM existant dans la liste déroulante.


              JumpStart Security Settings IAM section with Find IAM role selected.

Rôle IAM d'entrée

Si vous sélectionnez cette option, vous devez saisir manuellement l'ARN d'un rôle IAM existant. Si votre rôle d'exécution Studio ou Amazon VPC bloque l'appel iam:list* , vous devez utiliser cette option pour utiliser un rôle IAM existant.


              JumpStart Security Settings IAM section with Input IAM role selected.

Amazon VPC

Tous les modèles JumpStart fonctionnent en mode d'isolement du réseau. Une fois le conteneur de modèle créé, aucun autre appel ne peut être effectué. Vous pouvez sélectionner un VPC Amazon qui est transmis dans le cadre des tâches d'entraînement et d'hébergement. SageMaker utilise ce VPC Amazon pour envoyer et récupérer des ressources de votre compartiment Amazon S3. Ce VPC Amazon est différent du VPC Amazon qui limite l'accès à l'Internet public depuis votre instance Studio. Pour plus d'informations sur le Studio Amazon VPC, consultez Connexion des blocs-notes SageMaker Studio dans un VPC à des ressources externes.

Le VPC Amazon que vous transmettez n'a pas besoin d'accéder à l'Internet public, mais il doit avoir accès à Amazon S3. Le point de terminaison Amazon VPC pour Amazon S3 doit autoriser l'accès aux ressources suivantes (a minima) dont le modèle a besoin.

{ "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListMultipartUploadParts" ], "Resources": [ "arn:aws:s3:<region>::bucket/jumpstart-cache-prod-<region>/*", "arn:aws:s3:<region>:<account>:bucket/*", ] },{ "Effect": "Allow", "Action": [ "s3:ListBucket", ], "Resources": [ "arn:aws:s3:<region>::bucket/jumpstart-cache-prod-<region>", "arn:aws:s3:<region>:<account>:bucket", ]

Si vous ne sélectionnez pas un VPC Amazon, aucun VPC Amazon n'est utilisé.

Trouver un VPC

Si vous choisissez cette option, vous devez sélectionner un VPC Amazon existant dans la liste déroulante. Après avoir choisi un VPC Amazon, vous devez sélectionner un sous-réseau et un groupe de sécurité pour votre VPC Amazon. Pour plus d'informations sur les sous-réseaux et les groupes de sécurité, consultez la section Overview of VPCs and subnets (Présentation des VPC et des sous-réseaux).


              JumpStart Security Settings VPC section with Find VPC selected.

VPC d'entrée

Si vous sélectionnez cette option, vous devez sélectionner manuellement le sous-réseau et le groupe de sécurité qui composent votre Amazon VPC. Si votre rôle d'exécution Studio ou Amazon VPC bloque l'appel ec2:list*, vous devez utiliser cette option pour sélectionner le sous-réseau et le groupe de sécurité.


              JumpStart Security Settings VPC section with Input VPC selected.

Clés de chiffrement

Vous pouvez sélectionner une clé AWS KMS qui est transmise dans le cadre des tâches d'entraînement et des tâches d'hébergement. SageMaker utilise cette clé pour chiffrer le volume Amazon EBS du conteneur, ainsi que le modèle reconditionné dans Amazon S3 pour les tâches d'hébergement et la sortie pour les tâches d'entraînement. Pour en savoir plus sur les clés AWS KMS, consultez AWS KMS keys (Clés KMS).

La clé que vous transmettez doit faire confiance au rôle IAM transmis. Si vous ne spécifiez pas de rôle IAM, la clé AWS KMS doit faire confiance à votre rôle d'exécution Studio.

Si vous ne sélectionnez pas de clé AWS KMS, SageMaker fournit un chiffrement par défaut pour les données du volume Amazon EBS et les artefacts Amazon S3.

Trouver des clés de chiffrement

Si vous sélectionnez cette option, vous devez sélectionner les clés AWS KMS existantes dans la liste déroulante.


              JumpStart Security Settings encryption section with Find encryption keys selected.

Clés de chiffrement d'entrée

Si vous sélectionnez cette option, vous devez saisir les clés AWS KMS manuellement. Si votre rôle d'exécution Studio ou Amazon VPC bloque l'appel kms:list* , vous devez utiliser cette option pour sélectionner les clés AWS KMS existantes.


              JumpStart Security Settings encryption section with Input encryption keys selected.

Affiner un modèle

L'affinage entraîne un modèle pré-entraîné sur un nouveau jeu de données sans entraînement et à partir de zéro. Ce processus, également connu sous le nom d'apprentissage par transfert, peut produire des modèles précis avec des jeux de données plus petits et moins de temps d'entraînement.

Affiner la source de données

Lorsque vous affinez un modèle, vous pouvez utiliser le jeu de données par défaut ou choisir vos propres données, situées dans un compartiment Amazon S3.

Pour parcourir les compartiments à votre disposition, choisissez Find S3 bucket (Rechercher un compartiment S3). Ces compartiments sont limités par les autorisations utilisées pour configurer votre compte Studio. Vous pouvez également spécifier un URI Amazon S3 en choisissant Enter Amazon S3 bucket location (Entrer l'emplacement du compartiment Amazon S3).


      JumpStart data source settings with default dataset selected.

Astuce

Pour savoir comment formater les données dans votre compartiment, choisissez Learn more (En savoir plus). La section de description du modèle contient des informations détaillées sur les entrées et les sorties. 

Pour les modèles de texte :

  • Le compartiment doit comporter un fichier data.csv.

  • La première colonne doit correspondre à un nombre entier unique pour l'étiquette de classe. For exemple  : 1, 2, 3, 4, n

  • La seconde colonne doit être une chaîne.

  • La seconde colonne doit contenir le texte correspondant qui correspond au type et à la langue du modèle. 

Pour les modèles de vision :

  • Le compartiment doit contenir autant de sous-répertoires que le nombre de classes.

  • Chaque sous-répertoire doit contenir des images appartenant à cette classe au format .jpg.

Note

Le compartiment Amazon S3 doit être situé dans la même Région AWS dans laquelle vous exécutez SageMaker Studio, car SageMaker n'autorise pas les requêtes entre régions.

Affiner la configuration du déploiement

La famille p3 est recommandée, car elle est considérée comme la plus rapide pour l'entraînement en deep learning, ce qui est recommandé pour affiner un modèle. Le graphique suivant indique le nombre de GPU dans chaque type d'instance. Il existe d'autres options disponibles que vous pouvez choisir, y compris les types d'instance p2 et g4.

Type d'instance GPU
p3.2xlarge 1
p3.8xlarge 4
p3.16xlarge 8
p3dn.24xlarge 8

Hyperparamètres

Vous pouvez personnaliser les hyperparamètres de la tâche d'entraînement utilisés pour affiner le modèle. 

Si vous utilisez le jeu de données par défaut pour les modèles de texte sans modifier les hyperparamètres, vous obtenez un modèle presque identique. Pour les modèles de vision, le jeu de données par défaut est différent du jeu de données utilisé pour entraîner les modèles pré-entraînés. Par conséquent, votre modèle est différent.

Vous disposez des options d'hyperparamètre suivantes :

  • Epochs (Époques) – Une époque est un cycle dans l'ensemble du jeu de données. Plusieurs intervalles complètent un lot, et plusieurs lots finissent par compléter une époque. Plusieurs époques sont exécutées jusqu'à ce que la précision du modèle atteigne un niveau acceptable ou lorsque le taux d'erreur descend en dessous d'un niveau acceptable.

  • Learning rate (Taux d'apprentissage) – Quantité de modifications que doivent subir les valeurs d'une époque à l'autre. Au fur et à mesure que le modèle est affiné, ses pondérations internes sont modifiées et les taux d'erreur sont vérifiés pour voir si le modèle s'améliore. Un taux d'apprentissage typique est de 0,1 ou 0,01, où 0,01 est un ajustement beaucoup plus petit et peut faire en sorte que l'entraînement prenne beaucoup de temps pour converger, alors que 0,1 est beaucoup plus grand et peut faire en sorte que l'entraînement dépasse les limites. Il s'agit de l'un des principaux hyperparamètres que vous pouvez ajuster pour l'entraînement de votre modèle. Notez que pour les modèles de texte, un taux d'apprentissage beaucoup plus faible (5e-5 pour BERT) peut donner lieu à un modèle plus précis.

  • Batch size (Taille de lot) – nombre d'enregistrements du jeu de données à sélectionner pour chaque intervalle à envoyer aux GPU pour l'entraînement.

    Dans un exemple d'image, vous pouvez envoyer 32 images par GPU,. 32 est donc votre taille de lot. Si vous choisissez un type d'instance avec plusieurs GPU, le lot est divisé par le nombre de GPU. La taille du lot suggérée varie en fonction des données et du modèle que vous utilisez. Par exemple, la façon dont vous optimisez les données d'image diffère de la façon dont vous traitez les données de langue.

    Dans le graphique de type d'instance de la section sur la configuration du déploiement, vous pouvez voir le nombre de GPU par type d'instance. Commencez par une taille de lot standard recommandée (par exemple, 32 pour un modèle de vision). Ensuite, multipliez cela par le nombre de GPU dans le type d'instance que vous avez sélectionné. Par exemple, si vous utilisez un p3.8xlarge, cela correspond à 32 (taille du lot) multiplié par quatre (GPU), soit un total de 128, car la taille du lot s'adapte au nombre de GPU. Pour un modèle de texte comme BERT, essayez de commencer par une taille de lot de 64, puis réduisez-la au besoin.


          JumpStart Hyperparameter settings with values entered.

Sortie de l'entraînement

Lorsque le processus d'affinage est terminé, JumpStart fournit des informations sur le modèle : modèle parent, nom de la tâche d'entraînement, Amazon Resource Name (ARN) de la tâche d'entraînement, temps d'entraînement et chemin de sortie. Le chemin de sortie est l'endroit où vous pouvez trouver votre nouveau modèle dans un compartiment Amazon S3. La structure de dossier utilise le nom de modèle que vous avez fourni et le fichier de modèle se trouve dans un sous-dossier /output. Il est toujours nommé model.tar.gz

Exemple : s3://bucket/model-name/output/model.tar.gz