Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Lancement d'une DLAMI instance avec AWS Neuron
La dernière version DLAMI est prête à être utilisée avec AWS Inferentia et est livré avec le AWS APIPackage Neuron. Pour lancer une DLAMI instance, consultez la section Lancement et configuration d'une instanceDLAMI. Une fois que vous avez DLAMI obtenu un, suivez les étapes ci-dessous pour vous assurer que votre AWS puce Inferentia et AWS Les ressources neuronales sont actives.
Table des matières
Vérification de votre instance
Avant d'utiliser votre instance, vérifiez qu'elle est correctement configurée et configurée avec Neuron.
Identification AWS Dispositifs d'inférence
Pour identifier le nombre d'appareils Inferentia sur votre instance, utilisez la commande suivante :
neuron-ls
Si des périphériques Inferentia sont attachés à votre instance, votre sortie ressemblera à ce qui suit :
+--------+--------+--------+-----------+--------------+ | NEURON | NEURON | NEURON | CONNECTED | PCI | | DEVICE | CORES | MEMORY | DEVICES | BDF | +--------+--------+--------+-----------+--------------+ | 0 | 4 | 8 GB | 1 | 0000:00:1c.0 | | 1 | 4 | 8 GB | 2, 0 | 0000:00:1d.0 | | 2 | 4 | 8 GB | 3, 1 | 0000:00:1e.0 | | 3 | 4 | 8 GB | 2 | 0000:00:1f.0 | +--------+--------+--------+-----------+--------------+
La sortie fournie provient d'une instance INF1.6xLarge et inclut les colonnes suivantes :
-
NEURONDEVICE: ID logique attribué au NeuronDevice. Cet ID est utilisé lors de la configuration de plusieurs environnements d'exécution pour en utiliser différents. NeuronDevices
-
NEURONCORES: Le nombre de NeuronCores présents dans le NeuronDevice.
-
NEURONMEMORY: La quantité de DRAM mémoire contenue dans le NeuronDevice.
-
CONNECTEDDEVICES: Autre NeuronDevices connecté au NeuronDevice.
-
PCIBDF: L'identifiant de fonction du périphérique de PCI bus (BDF) du NeuronDevice.
Affichage de l'utilisation des ressources
Affichez des informations utiles sur l'utilisation de NeuronCore et v, CPU l'utilisation de la mémoire, les modèles chargés et les applications Neuron à l'aide de la neuron-top
commande. Le lancement neuron-top
sans arguments affichera les données de toutes les applications d'apprentissage automatique qui les utilisent NeuronCores.
neuron-top
Lorsqu'une application en utilise quatre NeuronCores, le résultat doit ressembler à l'image suivante :
Utilisation de Neuron Monitor (neuron-monitor)
Neuron Monitor collecte des métriques à partir des environnements d'exécution Neuron exécutés sur le système et diffuse les données collectées au format stdout. JSON Ces métriques sont organisées en groupes de métriques que vous configurez en fournissant un fichier de configuration. Pour plus d'informations sur Neuron Monitor, consultez le guide de l'utilisateur de Neuron
Mise à niveau du logiciel Neuron
Pour plus d'informations sur la mise à jour du SDK logiciel Neuron intégréDLAMI, consultez le AWS Guide de configuration
Étape suivante
En utilisant le DLAMI avec AWS Neuron