Sélection d'instances pour les phases Neptune ML - Amazon Neptune

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Sélection d'instances pour les phases Neptune ML

Les différentes phases du traitement Neptune ML utilisent différentes instances SageMaker. Ici, nous expliquons comment choisir le type d'instance approprié pour chaque phase. Vous trouverez des informations sur les types d'instances SageMaker et leur tarification dans Tarification d'Amazon SageMaker.

Sélection d'une instance pour le traitement des données

L'étape de traitement des données SageMaker nécessite une instance de traitement disposant de suffisamment de mémoire et de stockage sur disque pour les données d'entrée, intermédiaires et de sortie. La quantité spécifique de mémoire et de stockage sur disque requise dépend des caractéristiques du graphe Neptune ML et de ses fonctionnalités exportées.

Par défaut, Neptune ML choisit la plus petite instance ml.r5 dont la mémoire est dix fois supérieure à la taille des données de graphe exportées sur le disque.

Sélection d'une instance pour l'entraînement de modèle et la transformation de modèle

La sélection du type d'instance approprié pour l'entraînement de modèle ou la transformation de modèle dépend du type de tâche, de la taille de graphe et de vos exigences en matière de délai d'exécution. Les instances GPU fournissent les meilleures performances. Nous recommandons généralement les instances en série p3 et g4dn. Vous pouvez également utiliser les instances p2 ou p4d.

Par défaut, Neptune ML choisit la plus petite instance GPU avec plus de mémoire que ce que nécessitent l'entraînement de modèle et la transformation de modèle. Vous pouvez rechercher cette sélection dans le fichier train_instance_recommendation.json, dans l'emplacement de sortie du traitement des données Amazon S3. Voici un exemple du contenu d'un fichier train_instance_recommendation.json :

{ "instance": "(the recommended instance type for model training and transform)", "cpu_instance": "(the recommended instance type for base processing instance)", "disk_size": "(the estimated disk space required)", "mem_size": "(the estimated memory required)" }

Sélection d'une instance pour un point de terminaison d'inférence

La sélection du type d'instance approprié pour un point de terminaison d'inférence dépend du type de tâche, de la taille de graphe et de votre budget. Par défaut, Neptune ML choisit la plus petite instance ml.m5d avec plus de mémoire que celle requise par le point de terminaison d'inférence.

Note

Si plus de 384 Go de mémoire sont nécessaires, Neptune ML utilise une instance ml.r5d.24xlarge.

Vous pouvez voir quel type d'instance Neptune ML recommande dans le fichier infer_instance_recommendation.json situé dans l'emplacement Amazon S3 que vous utilisez pour l'entraînement de modèle. Voici un exemple de contenu de ce fichier :

{ "instance" : "(the recommended instance type for an inference endpoint)", "disk_size" : "(the estimated disk space required)", "mem_size" : "(the estimated memory required)" }