SageMaker JumpStart - Amazon SageMaker

SageMaker JumpStart

Note

Pour utiliser de nouvelles fonctions avec une instance de bloc-notes ou une appli Studio existante, vous devez redémarrer l'instance de bloc-notes ou l'appli Studio afin d'obtenir les dernières mises à jour. Pour de plus amples informations, veuillez consulter Mettre à jour SageMaker Studio et les applis Studio.

Vous pouvez utiliser SageMaker JumpStart pour en savoir plus sur les fonctions et les fonctionnalités de SageMaker grâce à des solutions en 1 clic organisées, des exemples de blocs-notes et des modèles pré-entraînés que vous pouvez déployer. Vous pouvez également affiner les modèles et les déployer.

Pour accéder à JumpStart, vous devez d'abord lancer SageMaker Studio. Les fonctions JumpStart ne sont pas disponibles dans les instances de bloc-notes SageMaker et vous ne pouvez pas y accéder via les API SageMaker ou la CLI AWS.

Ouvrez JumpStart à l'aide du lanceur d'applications JumpStart dans la section Mise en route ou en choisissant l'icône JumpStart ( ) dans la barre latérale de gauche.

Dans le navigateur de fichiers et de ressources (panneau de gauche), vous pouvez trouver les options JumpStart. À partir de là, vous pouvez choisir de parcourir JumpStart pour trouver des solutions, des modèles, des blocs-notes et d'autres ressources, ou consulter vos solutions, points de terminaison et tâches d'entraînement actuellement lancées.

Pour voir ce que JumpStart a à offrir, choisissez l'icône JumpStart, puis Browse JumpStart (Parcourir JumpStart). JumpStart s'ouvre dans un nouvel onglet dans la zone de travail principale. Ici, vous pouvez parcourir des solutions en un clic, des modèles, des exemples de blocs-notes, des blogs et des didacticiels vidéo.

Important

Amazon SageMaker JumpStart met certains contenus à disposition à partir de sources tierces. Ce contenu peut être soumis à des contrats de licence distincts. Il vous incombe de vérifier et de respecter les contrats de licence applicables et de vous assurer qu'ils sont acceptables pour votre cas d'utilisation avant de télécharger ou d'utiliser le contenu.

Utilisation de JumpStart

En haut de la page JumpStart, vous pouvez utiliser la recherche pour rechercher des rubriques d'intérêt. 

Vous pouvez trouver des ressources JumpStart en utilisant la recherche, ou en parcourant chaque catégorie qui suit le panneau de recherche :

  • Solutions – Lancez des solutions de machine learning de bout en bout qui lient SageMaker aux autres services AWS en un clic.

  • Text models (Modèles texte) – Déployez et affinez des transformateurs pré-entraînés pour différents cas d'utilisation du traitement du langage naturel.

  • Vision models (Modèles de vision) – Déployez et affinez les modèles pré-entraînés pour la classification des images et la détection des objets en un clic.

  • SageMaker algorithms (Algorithmes SageMaker) – Entraînez et déployez des algorithmes intégrés SageMaker pour différents types de problèmes avec ces exemples de blocs-notes.

  • Example notebooks (Exemples de blocs-notes) – Exécutez des exemples de blocs-notes qui utilisent des fonctions SageMaker telles que l'entraînement sur les instances Spot et les expériences sur une grande variété de types de modèles et de cas d'utilisation.

  • Blogs – Lisez les explications détaillées et les solutions d'experts du machine learning hébergées par Amazon.

  • Didacticiels vidéo – Regardez des didacticiels vidéo sur les fonctions de SageMaker et les cas d'utilisation du machine learning par des experts du machine learning hébergés par Amazon.

Solutions

Lorsque vous choisissez une solution, JumpStart affiche une description de la solution et un bouton Launch (Lancer). Lorsque vous cliquez sur Launch (Lancer), JumpStart crée toutes les ressources nécessaires à l'exécution de la solution, y compris les instances d'entraînement et d'hébergement de modèles. Après le lancement de la solution JumpStart, JumpStart affiche un bouton Open Notebook (Ouvrir le bloc-notes). Vous pouvez cliquer sur le bouton pour utiliser les blocs-notes fournis et explorer les fonctions de la solution. Lorsque les artefacts sont générés lors du lancement ou après l'exécution des blocs-notes fournis, ils sont répertoriés dans le tableau Artefacts générés. Vous pouvez supprimer des artefacts individuels à l'aide de l'icône Corbeille ( ). Vous pouvez supprimer toutes les ressources de la solution en choisissant Delete solution resources (Supprimer les ressources de la solution).

Models

Les modèles sont disponibles pour un déploiement rapide directement à partir de JumpStart. Vous pouvez également affiner certains de ces modèles. Lorsque vous parcourez les modèles, vous pouvez faire défiler l'écran jusqu'aux sections de déploiement et d'affinage, jusqu'à la section Description. Dans la section Description, vous pouvez en savoir plus sur le modèle, y compris ce qu'il peut faire avec le modèle, quels types d'entrées et de sorties sont attendus et le type de données dont vous avez besoin si vous souhaitez utiliser l'apprentissage par transfert pour affiner le modèle.

Les tableaux suivants répertorient les modèles actuellement proposés dans JumpStart. Les modèles disponibles sont triés en fonction de leur type de modèle et de leur tâche. Pour afficher d'autres jeux de modèles, cliquez sur l'onglet des tâches correspondant à ces modèles.

Modèles texte

Text Classification Models

Modèle Réglable Source
BERT Base Cased Oui Tensorflow Hub
BERT Base MEDLINE/PubMed Oui Tensorflow Hub
Boîtier multilingue BERT Base Oui Tensorflow Hub
BERT Base Uncased Oui Tensorflow Hub
BERT Base WikiPedia et BookCorpus Oui Tensorflow Hub
BERT Large Cased Oui Tensorflow Hub
BERT Large Cased Whole Word Masking Oui Tensorflow Hub
BERT Large Uncased Whole Word Masking Oui Tensorflow Hub
ELECTRA-Base++ Oui Tensorflow Hub
ELECTRA-Small++ Oui Tensorflow Hub
Text Generation Models

Modèle Réglable Source
DistilGPT 2 Non Hugging Face
GPT 2 Non Hugging Face
GPT 2 Large Non Hugging Face
GPT 2 Medium Non Hugging Face
OpenAI GPT Non Hugging Face
Extractive Question Answering Models

Modèle Réglable Source
BERT Base Cased Oui PyTorch Hub
BERT Base Multilingual Cased Oui PyTorch Hub
BERT Base Multilingual Uncased Oui PyTorch Hub
BERT Base Uncased Oui PyTorch Hub
BERT Large Cased Oui PyTorch Hub
BERT Large Cased Whole Word Masking Oui PyTorch Hub
BERT Large Cased Whole Word Masking SQuAD Oui PyTorch Hub
BERT Large Uncased Oui PyTorch Hub
BERT Large Uncased Whole Word Masking Oui PyTorch Hub
BERT Large Uncased Whole Word Masking SQuAD Oui PyTorch Hub
DistilBERT Base Cased Oui PyTorch Hub
DistilBERT Base Multilingual Cased Oui PyTorch Hub
DistilBERT Base Uncased Oui PyTorch Hub
DistilRoBERTa Base Oui PyTorch Hub
RoBERTa Base Oui PyTorch Hub
RoBERTa Base OpenAI Oui PyTorch Hub
RoBERTa Large Oui PyTorch Hub
RoBERTa Large OpenAI Oui PyTorch Hub
Sentence Pair Classification Models

Modèle Réglable Source
BERT Base Cased Oui Hugging Face
BERT Base Cased Oui Tensorflow Hub
BERT Base MEDLINE/PubMed Oui Tensorflow Hub
BERT Base Multilingual Cased Oui Hugging Face
BERT Base Multilingual Cased Oui Tensorflow Hub
BERT Base Multilingual Uncased Oui Hugging Face
BERT Base Uncased Oui Hugging Face
BERT Base Uncased Oui Tensorflow Hub
BERT Base Wikipedia et BooksCorpus Oui Tensorflow Hub
BERT Large Cased Oui Hugging Face
BERT Large Cased Whole Word Masking Oui Hugging Face
BERT Large Cased Whole Word Masking Oui Tensorflow Hub
BERT Large Uncased Oui Hugging Face
BERT Large Uncased Oui Tensorflow Hub
BERT Large Uncased Whole Word Masking Oui Hugging Face
BERT Large Uncased Whole Word Masking Oui Tensorflow Hub
DistilBERT Base Cased Oui Hugging Face
DistilBERT Base Multilingual Cased Oui Hugging Face
DistilBERT Base Uncased Oui Hugging Face
DistilRoBERTa Base Oui Hugging Face
ELECTRA-Base++ Oui Tensorflow Hub
ELECTRA-Small++ Oui Tensorflow Hub
RoBERTa Base Oui Hugging Face
RoBERTa Base OpenAI Oui Hugging Face
RoBERTa Large Oui Hugging Face
RoBERTa Large OpenAI Oui Hugging Face
XLM CLM English-German Oui Hugging Face
XLM MLM 15 XNLI Languages Oui Hugging Face
XLM MLM English-German Oui Hugging Face
XLM MLM English-Romanian Oui Hugging Face
XLM MLM TLM 15 XNLI Languages Oui Hugging Face

Modèles Vision

Image Classification Models

Modèle Réglable Source
AlexNet Oui PyTorch Hub
BiT-M R101x1 Oui Tensorflow Hub
BiT-M R101x1 ImageNet-21k Oui Tensorflow Hub
BiT-M R101x3 Oui Tensorflow Hub
BiT-M R101x3 ImageNet-21k Oui Tensorflow Hub
BiT-M R50x1 Oui Tensorflow Hub
BiT-M R50x1 ImageNet-21k Oui Tensorflow Hub
BiT-M R50x3 Oui Tensorflow Hub
BiT-M R50x3 ImageNet-21k Oui Tensorflow Hub
BiT-S R101x1 Oui Tensorflow Hub
BiT-S R101x3 Oui Tensorflow Hub
BiT-S R50x1 Oui Tensorflow Hub
BiT-S R50x3 Oui Tensorflow Hub
DenseNet 121 Oui PyTorch Hub
DenseNet 161 Oui PyTorch Hub
DenseNet 169 Oui PyTorch Hub
DenseNet 201 Oui PyTorch Hub
EfficientNet B0 Oui Tensorflow Hub
EfficientNet B0 Lite Oui Tensorflow Hub
EfficientNet B1 Oui Tensorflow Hub
EfficientNet B1 Lite Oui Tensorflow Hub
EfficientNet B2 Oui Tensorflow Hub
EfficientNet B2 Lite Oui Tensorflow Hub
EfficientNet B3 Oui Tensorflow Hub
EfficientNet B3 Lite Oui Tensorflow Hub
EfficientNet B4 Oui Tensorflow Hub
EfficientNet B4 Lite Oui Tensorflow Hub
EfficientNet B5 Oui Tensorflow Hub
EfficientNet B6 Oui Tensorflow Hub
EfficientNet B7 Oui Tensorflow Hub
GoogleNet Oui PyTorch Hub
Inception ResNet V2 Oui Tensorflow Hub
Inception V1 Oui Tensorflow Hub
Inception V2 Oui Tensorflow Hub
Inception V3 Oui Tensorflow Hub
Inception V3 Preview Oui Tensorflow Hub
MobileNet V1 0.25 128 Oui Tensorflow Hub
MobileNet V1 0.25 160 Oui Tensorflow Hub
MobileNet V1 0.25 192 Oui Tensorflow Hub
MobileNet V1 0.25 224 Oui Tensorflow Hub
MobileNet V1 0.50 128 Oui Tensorflow Hub
MobileNet V1 0.50 160 Oui Tensorflow Hub
MobileNet V1 0.50 192 Oui Tensorflow Hub
MobileNet V1 0.50 224 Oui Tensorflow Hub
MobileNet V1 0.75 128 Oui Tensorflow Hub
MobileNet V1 0.75 160 Oui Tensorflow Hub
MobileNet V1 0.75 192 Oui Tensorflow Hub
MobileNet V1 0.75 224 Oui Tensorflow Hub
MobileNet V1 1.00 128 Oui Tensorflow Hub
MobileNet V1 1.00 160 Oui Tensorflow Hub
MobileNet V1 1.00 192 Oui Tensorflow Hub
MobileNet V1 1.00 224 Oui Tensorflow Hub
MobileNet V2 Oui Tensorflow Hub
MobileNet V2 Oui PyTorch Hub
MobileNet V2 0.35 224 Oui Tensorflow Hub
MobileNet V2 0.50 224 Oui Tensorflow Hub
MobileNet V2 0.75 224 Oui Tensorflow Hub
MobileNet V2 1.00 224 Oui Tensorflow Hub
MobileNet V2 1.30 224 Oui Tensorflow Hub
MobileNet V2 1.40 224 Oui Tensorflow Hub
ResNet 101 Oui PyTorch Hub
ResNet 152 Oui PyTorch Hub
ResNet 18 Oui PyTorch Hub
ResNet 34 Oui PyTorch Hub
ResNet 50 Oui Tensorflow Hub
ResNet 50 Oui PyTorch Hub
ResNet V1 101 Oui Tensorflow Hub
ResNet V1 152 Oui Tensorflow Hub
ResNet V1 50 Oui Tensorflow Hub
ResNet V2 101 Oui Tensorflow Hub
ResNet V2 152 Oui Tensorflow Hub
ResNet V2 50 Oui Tensorflow Hub
Resnext 101 Oui PyTorch Hub
Resnext 50 Oui PyTorch Hub
ShuffleNet V2 Oui PyTorch Hub
SqueezeNet 0 Oui PyTorch Hub
SqueezeNet 1 Oui PyTorch Hub
VGG 11 Oui PyTorch Hub
VGG 11-BN Oui PyTorch Hub
VGG-13 Oui PyTorch Hub
VGG 13-BN Oui PyTorch Hub
VGG 16 Oui PyTorch Hub
VGG 16-BN Oui PyTorch Hub
VGG 19 Oui PyTorch Hub
VGG 19-BN Oui PyTorch Hub
Wide ResNet 101 Oui PyTorch Hub
Wide ResNet 50 Oui PyTorch Hub
Image Embedding Models

Modèle Réglable Source
BiT-M R101x1 Feature Vector Non Tensorflow Hub
BiT-M R101x3 ImageNet-21k Feature Vector Non Tensorflow Hub
BiT-M R50x1 Feature Vector Non Tensorflow Hub
BiT-M R50x3 ImageNet-21k Non Tensorflow Hub
BiT-S R101x1 Feature Vector Non Tensorflow Hub
BiT-S R101x3 Feature Vector Non Tensorflow Hub
BiT-S R50x1 Feature Vector Non Tensorflow Hub
BiT-S R50x3 Feature Vector Non Tensorflow Hub
EfficientNet B0 Feature Vector Non Tensorflow Hub
EfficientNet B0 Lite Feature Vector Non Tensorflow Hub
EfficientNet B1 Feature Vector Non Tensorflow Hub
EfficientNet B1 Lite Feature Vector Non Tensorflow Hub
EfficientNet B2 Feature Vector Non Tensorflow Hub
EfficientNet B2 Lite Feature Vector Non Tensorflow Hub
EfficientNet B3 Feature Vector Non Tensorflow Hub
EfficientNet B3 Lite Feature Vector Non Tensorflow Hub
EfficientNet B4 Lite Feature Vector Non Tensorflow Hub
EfficientNet B6 Feature Vector Non Tensorflow Hub
Inception V1 Feature Vector Non Tensorflow Hub
Vecteur de fonction Inception V2 Non Tensorflow Hub
Inception V3 Feature Vector Non Tensorflow Hub
Inception V3 Preview Feature Vector Non Tensorflow Hub
MobileNet V1 0.25 128 Feature Vector Non Tensorflow Hub
MobileNet V1 0.25 160 Feature Vector Non Tensorflow Hub
MobileNet V1 0.25 192 Feature Vector Non Tensorflow Hub
MobileNet V1 0.25 224 Feature Vector Non Tensorflow Hub
MobileNet V1 0.50 128 Feature Vector Non Tensorflow Hub
MobileNet V1 0.50 160 Feature Vector Non Tensorflow Hub
MobileNet V1 0.50 192 Feature Vector Non Tensorflow Hub
MobileNet V1 0.50 224 Feature Vector Non Tensorflow Hub
MobileNet V1 0.75 128 Feature Vector Non Tensorflow Hub
MobileNet V1 0.75 160 Feature Vector Non Tensorflow Hub
MobileNet V1 0.75 192 Feature Vector Non Tensorflow Hub
MobileNet V1 0.75 224 Feature Vector Non Tensorflow Hub
MobileNet V1 1.00 128 Feature Vector Non Tensorflow Hub
MobileNet V1 1.00 160 Feature Vector Non Tensorflow Hub
MobileNet V1 1.00 192 Feature Vector Non Tensorflow Hub
MobileNet V1 1.00 224 Feature Vector Non Tensorflow Hub
MobileNet V2 0.35 224 Feature Vector Non Tensorflow Hub
MobileNet V2 0.50 224 Non Tensorflow Hub
MobileNet V2 0.75 224 Feature Vector Non Tensorflow Hub
MobileNet V2 1.00 224 Feature Vector Non Tensorflow Hub
MobileNet V2 1.30 224 Feature Vector Non Tensorflow Hub
MobileNet V2 1.40 224 Feature Vector Non Tensorflow Hub
MobileNet V2 Feature Vector Non Tensorflow Hub
ResNet 50 Feature Vector Non Tensorflow Hub
ResNet V1 101 Feature Vector Non Tensorflow Hub
ResNet V1 152 Feature Vector Non Tensorflow Hub
ResNet V1 50 Feature Vector Non Tensorflow Hub
ResNet V2 101 Feature Vector Non Tensorflow Hub
ResNet V2 152 Feature Vector Non Tensorflow Hub
ResNet V2 50 Feature Vector Non Tensorflow Hub
Object Detection Models

Modèle Réglable Source
CenterNet 1024x1024 Non Tensorflow Hub
CenterNet 1024x1024 Keypoints Non Tensorflow Hub
CenterNet 512x512 Non Tensorflow Hub
CenterNet 512x512 Keypoints Non Tensorflow Hub
CenterNet ResNet-v1-101 Non Tensorflow Hub
CenterNet ResNet-v1-50 Non Tensorflow Hub
CenterNet ResNet-v1-50 Keypoints Non Tensorflow Hub
CenterNet ResNet-v2-50 Non Tensorflow Hub
CenterNet ResNet-v2-50 Keypoints Non Tensorflow Hub
Faster R-CNN Resnet V2 1024x1024 Non Tensorflow Hub
Faster R-CNN Resnet V2 640x640 Non Tensorflow Hub
Faster R-CNN Resnet-101 V1 1024x1024 Non Tensorflow Hub
Faster R-CNN Resnet-101 V1 640x640 Non Tensorflow Hub
Faster R-CNN Resnet-101 V1 800x1333 Non Tensorflow Hub
Faster R-CNN Resnet-152 V1 1024x1024 Non Tensorflow Hub
Faster R-CNN Resnet-152 V1 800x1333 Non Tensorflow Hub
Faster R-CNN Resnet-152 V1 640x640 Non Tensorflow Hub
Faster R-CNN Resnet-50 V1 1024x1024 Non Tensorflow Hub
Faster R-CNN Resnet-50 V1 640x640 Non Tensorflow Hub
Faster R-CNN Resnet-50 V1 800x1333 Non Tensorflow Hub
Faster RCNN ResNet 101 V1d Non GluonCV
Faster RCNN ResNet 50 V1b Non GluonCV
FRCNN MobileNet V3 large 320 FPN Non PyTorch Hub
FRCNN MobileNet V3 large FPN Non PyTorch Hub
FRCNN ResNet 50 FPN Non PyTorch Hub
Retinanet SSD Resnet-101 1024x1024 Non Tensorflow Hub
Retinanet SSD Resnet-101 640x640 Non Tensorflow Hub
Retinanet SSD Resnet-152 1024x1024 Non Tensorflow Hub
Retinanet SSD Resnet-152 640x640 Non Tensorflow Hub
Retinanet SSD Resnet-50 1024x1024 Non Tensorflow Hub
Retinanet SSD Resnet-50 640x640 Non Tensorflow Hub
SSD Non PyTorch Hub
SSD 512 ResNet 50 V1 Oui GluonCV
SSD EfficientDet D0 Non Tensorflow Hub
SSD EfficientDet D1 Non Tensorflow Hub
SSD EfficientDet D2 Non Tensorflow Hub
SSD EfficientDet D3 Non Tensorflow Hub
SSD EfficientDet D4 Non Tensorflow Hub
SSD EfficientDet D5 Non Tensorflow Hub
SSD MobileNet 1.0 Oui GluonCV
SSD Mobilenet V1 640x640 Non Tensorflow Hub
SSD Mobilenet V2 Non Tensorflow Hub
SSD Mobilenet V2 320x320 Non Tensorflow Hub
SSD Mobilenet V2 640 x 640 Non Tensorflow Hub
SSD ResNet 50 V1 Oui GluonCV
SSD VGG 16 Atrous 300 Oui GluonCV
SSD VGG 16 Atrous 512 Oui GluonCV
YOLO V3 DarkNet 53 Non GluonCV
YOLO V3 MobileNet 1.0 Non GluonCV

Déploiement d'un modèle

Lorsque vous déployez un modèle à partir de JumpStart, SageMaker héberge le modèle et déploie un point de terminaison que vous pouvez utiliser pour l'inférence. JumpStart fournit également un exemple de bloc-notes que vous pouvez utiliser pour accéder au modèle après son déploiement.

Configuration du déploiement de modèle

Une fois que vous avez choisi un modèle, le panneau Deploy model (Déployer le modèle) s'ouvre. Choisissez Deployment Configuration (Configuration du déploiement) pour configurer le déploiement de votre modèle.

La valeur par défaut Machine Type (Type de machine) pour déployer un modèle dépend du modèle. Le type de machine est le matériel sur lequel la tâche d'entraînement s'exécute. Dans l'exemple suivant, l'instance ml.m5.large est la valeur par défaut pour ce modèle BERT particulier.

Vous pouvez également modifier le nom du point de terminaison.

Affiner un modèle

L'affinage entraîne un modèle pré-entraîné sur un nouveau jeu de données sans entraînement et à partir de zéro. Ce processus, également connu sous le nom d'apprentissage par transfert, peut produire des modèles précis avec des jeux de données plus petits et moins de temps d'entraînement.

Affiner la source de données

Lorsque vous affinez un modèle, vous pouvez utiliser le jeu de données par défaut ou choisir vos propres données, situées dans un compartiment S3.

Pour parcourir les compartiments à votre disposition, choisissez Find S3 bucket (Rechercher un compartiment S3). Ces compartiments sont limités par les autorisations utilisées pour configurer votre compte Studio. Vous pouvez également spécifier un URI S3 en choisissant Enter S3 bucket location (Entrer l'emplacement du compartiment S3).

Astuce

Pour savoir comment formater les données dans votre compartiment, choisissez Learn more (En savoir plus). De plus, la section de description du modèle contient des informations détaillées sur les entrées et les sorties. 

Pour les modèles de texte :

  • Le compartiment doit comporter un fichier data.csv.

  • La première colonne doit correspondre à un nombre entier unique pour l'étiquette de classe. Par exemple : 1, 2, 3, 4, n.

  • La seconde colonne doit être une chaîne.

  • La seconde colonne doit contenir le texte correspondant qui correspond au type et à la langue du modèle. 

Pour les modèles de vision :

  • Le compartiment doit contenir autant de sous-répertoires que le nombre de classes.

  • Chaque sous-répertoire doit contenir des images appartenant à cette classe au format .jpg.

Note

Le compartiment S3 doit être situé dans la même région AWS dans laquelle vous exécutez SageMaker Studio, car SageMaker n'autorise pas les demandes entre régions.

Affiner la configuration du déploiement

La famille p3 est recommandée, car elle est considérée comme la plus rapide pour l'entraînement en deep learning, ce qui est recommandé pour affiner un modèle. Le graphique suivant indique le nombre de GPU dans chaque type d'instance. Il existe d'autres options disponibles que vous pouvez choisir, y compris les types d'instance p2 et g4.

Type d'instance Processeurs graphiques
p3.2xlarge 1
p3.8xlarge 4
p3.16xlarge 8
p3dn.24xlarge 8

Hyperparameters

Vous pouvez personnaliser les hyperparamètres de la tâche d'entraînement utilisés pour affiner le modèle. 

Si vous utilisez le jeu de données par défaut pour les modèles de texte sans modifier les hyperparamètres, vous obtenez un modèle presque identique. Pour les modèles de vision, le jeu de données par défaut est différent du jeu de données utilisé pour entraîner les modèles pré-entraînés. Par conséquent, votre modèle est différent.

Vous disposez des options d'hyperparamètre suivantes :

  • Epochs (Époques) – Une époque est un cycle dans l'ensemble du jeu de données. Plusieurs intervalles complètent un lot, et plusieurs lots finissent par compléter une époque. Plusieurs époques sont exécutées jusqu'à ce que la précision du modèle atteigne un niveau acceptable ou, en d'autres termes, lorsque le taux d'erreur descend en dessous d'un niveau acceptable.

  • Learning rate (Taux d'apprentissage) – Quantité de modifications que doivent subir les valeurs d'une époque à l'autre. Au fur et à mesure que le modèle est affiné, ses pondérations internes sont modifiées et les taux d'erreur sont vérifiés pour voir si le modèle s'améliore. Un taux d'apprentissage typique est de 0,1 ou 0,01, où 0,01 est un ajustement beaucoup plus petit et peut faire en sorte que l'entraînement prenne beaucoup de temps pour converger, alors que 0,1 est beaucoup plus grand et peut faire en sorte que l'entraînement dépasse les limites. Il s'agit de l'un des principaux hyperparamètres que vous pouvez ajuster pour l'entraînement de votre modèle. Notez que pour les modèles de texte, un taux d'apprentissage beaucoup plus faible (5e-5 pour BERT) peut donner lieu à un modèle plus précis.

  • Batch size (Taille de lot) – Nombre d'enregistrements du jeu de données à sélectionner pour chaque intervalle à envoyer aux GPU disponibles dans l'entraînement. Dans un exemple d'image, vous pouvez envoyer 32 images par GPU,. 32 est donc votre taille de lot. Si vous choisissez un type d'instance avec plusieurs GPU, le lot est divisé par le nombre de GPU. La taille du lot suggérée varie en fonction des données et du modèle que vous utilisez. Par exemple, la façon dont vous optimisez les données d'image diffère de la façon dont vous traitez les données de langue. Dans le graphique de type d'instance de la section sur la configuration du déploiement, vous pouvez voir le nombre de GPU par type d'instance. Commencez par une taille de lot standard recommandée (par exemple, 32 pour un modèle de vision). Ensuite, multipliez cela par le nombre de GPU dans le type d'instance que vous avez sélectionné. Par exemple, si vous utilisez p3.8xlarge, ce serait 32 (taille de lot) x 4 (GPU), pour un total de 128, car la taille de votre lot a été ajustée par rapport au nombre de GPU. Pour un modèle de texte comme BERT, essayez de commencer par une taille de lot de 64, puis réduisez-la au besoin.

Sortie de l'entraînement

Lorsque le processus d'affinage est terminé, JumpStart fournit des informations sur le modèle : modèle parent, nom de la tâche d'entraînement, Amazon Resource Name (ARN) de la tâche d'entraînement, temps d'entraînement et chemin de sortie. Le chemin de sortie est l'endroit où vous pouvez trouver votre nouveau modèle dans un compartiment S3. La structure de dossier utilise le nom de modèle que vous avez fourni et le fichier de modèle se trouve dans un sous-dossier /output. Il est toujours nommé model.tar.gz

Exemple : s3://bucket/model-name/output/model.tar.gz