Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Explorez l'environnement du cluster dans AWS PCS
Une fois connecté au cluster, vous pouvez exécuter des commandes shell. Par exemple, vous pouvez changer d'utilisateur, travailler avec des données sur des systèmes de fichiers partagés et interagir avec Slurm.
Changer d'utilisateur
Si vous vous êtes connecté au cluster à l'aide du gestionnaire de session, vous êtes peut-être connecté en tant quessm-user
. Il s'agit d'un utilisateur spécial créé pour le gestionnaire de session. Passez à l'utilisateur par défaut sur Amazon Linux 2 à l'aide de la commande suivante. Vous n'aurez pas besoin de le faire si vous vous êtes connecté en utilisantSSH.
sudo su - ec2-user
Travailler avec des systèmes de fichiers partagés
Vous pouvez vérifier que le système de EFS fichiers et FSx pour les systèmes de fichiers Lustre sont disponibles à l'aide de la commandedf -h
. La sortie de votre cluster doit ressembler à ce qui suit :
[ec2-user@ip-10-3-6-103 ~]$ df -h Filesystem Size Used Avail Use% Mounted on devtmpfs 3.8G 0 3.8G 0% /dev tmpfs 3.9G 0 3.9G 0% /dev/shm tmpfs 3.9G 556K 3.9G 1% /run tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup /dev/nvme0n1p1 24G 18G 6.6G 73% / 127.0.0.1:/ 8.0E 0 8.0E 0% /home 10.3.132.79@tcp:/zlshxbev 1.2T 7.5M 1.2T 1% /shared tmpfs 780M 0 780M 0% /run/user/0 tmpfs 780M 0 780M 0% /run/user/1000
Le système de /home
fichiers monte 127.0.0.1 et possède une très grande capacité. Il s'agit du système de EFS fichiers que vous avez créé plus tôt dans le didacticiel. Tous les fichiers écrits ici seront disponibles /home
sur tous les nœuds du cluster.
Le système de /shared
fichiers monte une adresse IP privée et a une capacité de 1,2 To. Il s'agit du système de fichiers FSx for Lustre que vous avez créé plus tôt dans le didacticiel. Tous les fichiers écrits ici seront disponibles /shared
sur tous les nœuds du cluster.
Interagir avec Slurm
Répertorier les files d'attente et les nœuds
Vous pouvez répertorier les files d'attente et les nœuds auxquels elles sont associées à l'aidesinfo
. La sortie de votre cluster doit ressembler à ce qui suit :
[ec2-user@ip-10-3-6-103 ~]$ sinfo PARTITION AVAIL TIMELIMIT NODES STATE NODELIST demo up infinite 4 idle~ compute-1-[1-4] [ec2-user@ip-10-3-6-103 ~]$
Notez le nom de la partitiondemo
. Son statut est up
et il dispose d'un maximum de 4 nœuds. Il est associé aux nœuds du groupe de compute-1
nœuds. Si vous modifiez le groupe de nœuds de calcul et augmentez le nombre maximum d'instances à 8, le nombre de nœuds sera lu 8
et la liste des nœuds sera luecompute-1-[1-8]
. Si vous avez créé un deuxième groupe de nœuds de calcul nommé test
avec 4 nœuds et que vous l'avez ajouté à la demo
file d'attente, ces nœuds apparaîtront également dans la liste des nœuds.
Afficher les offres d'emploi
Vous pouvez répertorier toutes les tâches du système, quel que soit leur état, avecsqueue
. La sortie de votre cluster doit ressembler à ce qui suit :
[ec2-user@ip-10-3-6-103 ~]$ squeue JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
Réessayez de l'exécuter squeue
ultérieurement, lorsqu'une tâche Slurm est en attente ou en cours d'exécution.