Sélection d'instance pour les étapes Neptune ML - Amazon Neptune

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Sélection d'instance pour les étapes Neptune ML

Les différentes étapes du traitement Neptune ML utilisent différentes instances SageMaker. Voici comment choisir le type d'instance approprié pour chaque étape. Vous pouvez trouver des informations sur les types d'instances SageMaker et sur la tarification dansTarification Amazon SageMaker.

Sélection d'une instance pour le traitement des données

Le SageMakertraitement des donnéesune étape nécessite uneinstance de traitementqui dispose de suffisamment de mémoire et de stockage sur disque pour les données d'entrée, intermédiaires et de sortie. La quantité spécifique de mémoire et de stockage sur disque nécessaire dépend des caractéristiques du graphe Neptune ML et de ses fonctionnalités exportées.

Par défaut, Neptune ML choisit le plus petitml.r5dont la mémoire est dix fois supérieure à la taille des données graphiques exportées sur le disque.

Sélection d'une instance pour la formation et la transformation du modèle

Sélection du type d'instance approprié pourEntraînement de modèlesoumodèle Transformdépend du type de tâche, de la taille du graphique et de vos besoins en matière de retournement. Les instances GPU offrent les meilleures performances. Nous recommandons généralementp3etg4dninstances série. Vous pouvez également utiliserp2oup4dinstances.

Par défaut, Neptune ML choisit la plus petite instance GPU avec plus de mémoire que la formation au modèle et la transformation du modèle requis. Vous pouvez trouver ce qu'est cette sélection dans letrain_instance_recommendation.json, dans l'emplacement de sortie du traitement des données Amazon S3. Voici un exemple de contenu d'untrain_instance_recommendation.jsondans le fichier:

{ "instance": "(the recommended instance type for model training and transform)", "cpu_instance": "(the recommended instance type for base processing instance)", "disk_size": "(the estimated disk space required)", "mem_size": "(the estimated memory required)" }

Sélection d'une instance pour un point de terminaison d'inférence

Sélection du type d'instance approprié pour unpoint de terminaison d'inférencedépend du type de tâche, de la taille du graphique et de votre budget. Par défaut, Neptune ML choisit le plus petitml.m5davec plus de mémoire requise par le point de terminaison d'inférence.

Note

Si plus de 384 Go de mémoire sont nécessaires, Neptune ML utilise unml.r5d.24xlargeinstance.

Vous pouvez voir quel type d'instance Neptune ML recommande dans leinfer_instance_recommendation.jsonfichier situé dans l'emplacement Amazon S3 que vous utilisez pour la formation sur les modèles. Voici un exemple de contenu de ce fichier :

{ "instance" : "(the recommended instance type for an inference endpoint)", "disk_size" : "(the estimated disk space required)", "mem_size" : "(the estimated memory required)" }