Lancement d'une DLAMI instance avec AWS Neuron - AWS Apprentissage profond (deep learning) AMIs

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Lancement d'une DLAMI instance avec AWS Neuron

La dernière version DLAMI est prête à être utilisée avec AWS Inferentia et est livré avec le AWS APIPackage Neuron. Pour lancer une DLAMI instance, consultez la section Lancement et configuration d'une instanceDLAMI. Une fois que vous avez DLAMI obtenu un, suivez les étapes ci-dessous pour vous assurer que votre AWS puce Inferentia et AWS Les ressources neuronales sont actives.

Vérification de votre instance

Avant d'utiliser votre instance, vérifiez qu'elle est correctement configurée et configurée avec Neuron.

Identification AWS Dispositifs d'inférence

Pour identifier le nombre d'appareils Inferentia sur votre instance, utilisez la commande suivante :

neuron-ls

Si des périphériques Inferentia sont attachés à votre instance, votre sortie ressemblera à ce qui suit :

+--------+--------+--------+-----------+--------------+ | NEURON | NEURON | NEURON | CONNECTED | PCI | | DEVICE | CORES | MEMORY | DEVICES | BDF | +--------+--------+--------+-----------+--------------+ | 0 | 4 | 8 GB | 1 | 0000:00:1c.0 | | 1 | 4 | 8 GB | 2, 0 | 0000:00:1d.0 | | 2 | 4 | 8 GB | 3, 1 | 0000:00:1e.0 | | 3 | 4 | 8 GB | 2 | 0000:00:1f.0 | +--------+--------+--------+-----------+--------------+

La sortie fournie provient d'une instance INF1.6xLarge et inclut les colonnes suivantes :

  • NEURONDEVICE: ID logique attribué au NeuronDevice. Cet ID est utilisé lors de la configuration de plusieurs environnements d'exécution pour en utiliser différents. NeuronDevices

  • NEURONCORES: Le nombre de NeuronCores présents dans le NeuronDevice.

  • NEURONMEMORY: La quantité de DRAM mémoire contenue dans le NeuronDevice.

  • CONNECTEDDEVICES: Autre NeuronDevices connecté au NeuronDevice.

  • PCIBDF: L'identifiant de fonction du périphérique de PCI bus (BDF) du NeuronDevice.

Affichage de l'utilisation des ressources

Affichez des informations utiles sur l'utilisation de NeuronCore et v, CPU l'utilisation de la mémoire, les modèles chargés et les applications Neuron à l'aide de la neuron-top commande. Le lancement neuron-top sans arguments affichera les données de toutes les applications d'apprentissage automatique qui les utilisent NeuronCores.

neuron-top

Lorsqu'une application en utilise quatre NeuronCores, le résultat doit ressembler à l'image suivante :

Le résultat de la neuron-top commande, avec les informations relatives à l'une des quatre commandes NeuronCores mises en évidence.

Pour plus d'informations sur les ressources permettant de surveiller et d'optimiser les applications d'inférence basées sur les neurones, consultez Neuron Tools.

Utilisation de Neuron Monitor (neuron-monitor)

Neuron Monitor collecte des métriques à partir des environnements d'exécution Neuron exécutés sur le système et diffuse les données collectées au format stdout. JSON Ces métriques sont organisées en groupes de métriques que vous configurez en fournissant un fichier de configuration. Pour plus d'informations sur Neuron Monitor, consultez le guide de l'utilisateur de Neuron Monitor.

Mise à niveau du logiciel Neuron

Pour plus d'informations sur la mise à jour du SDK logiciel Neuron intégréDLAMI, consultez le AWS Guide de configuration des neurones.

Étape suivante

En utilisant le DLAMI avec AWS Neuron