Explorez l'environnement du cluster dans AWS PCS - AWS PCS

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Explorez l'environnement du cluster dans AWS PCS

Une fois connecté au cluster, vous pouvez exécuter des commandes shell. Par exemple, vous pouvez changer d'utilisateur, travailler avec des données sur des systèmes de fichiers partagés et interagir avec Slurm.

Changer d'utilisateur

Si vous vous êtes connecté au cluster à l'aide du gestionnaire de session, vous êtes peut-être connecté en tant quessm-user. Il s'agit d'un utilisateur spécial créé pour le gestionnaire de session. Passez à l'utilisateur par défaut sur Amazon Linux 2 à l'aide de la commande suivante. Vous n'aurez pas besoin de le faire si vous vous êtes connecté en utilisantSSH.

sudo su - ec2-user

Travailler avec des systèmes de fichiers partagés

Vous pouvez vérifier que le système de EFS fichiers et FSx pour les systèmes de fichiers Lustre sont disponibles à l'aide de la commandedf -h. La sortie de votre cluster doit ressembler à ce qui suit :

[ec2-user@ip-10-3-6-103 ~]$ df -h
Filesystem                 Size  Used Avail Use% Mounted on
devtmpfs                   3.8G     0  3.8G   0% /dev
tmpfs                      3.9G     0  3.9G   0% /dev/shm
tmpfs                      3.9G  556K  3.9G   1% /run
tmpfs                      3.9G     0  3.9G   0% /sys/fs/cgroup
/dev/nvme0n1p1              24G   18G  6.6G  73% /
127.0.0.1:/                8.0E     0  8.0E   0% /home
10.3.132.79@tcp:/zlshxbev  1.2T  7.5M  1.2T   1% /shared
tmpfs                      780M     0  780M   0% /run/user/0
tmpfs                      780M     0  780M   0% /run/user/1000

Le système de /home fichiers monte 127.0.0.1 et possède une très grande capacité. Il s'agit du système de EFS fichiers que vous avez créé plus tôt dans le didacticiel. Tous les fichiers écrits ici seront disponibles /home sur tous les nœuds du cluster.

Le système de /shared fichiers monte une adresse IP privée et a une capacité de 1,2 To. Il s'agit du système de fichiers FSx for Lustre que vous avez créé plus tôt dans le didacticiel. Tous les fichiers écrits ici seront disponibles /shared sur tous les nœuds du cluster.

Interagir avec Slurm

Répertorier les files d'attente et les nœuds

Vous pouvez répertorier les files d'attente et les nœuds auxquels elles sont associées à l'aidesinfo. La sortie de votre cluster doit ressembler à ce qui suit :

[ec2-user@ip-10-3-6-103 ~]$ sinfo
PARTITION AVAIL  TIMELIMIT  NODES  STATE NODELIST
demo         up   infinite      4  idle~ compute-1-[1-4]
[ec2-user@ip-10-3-6-103 ~]$

Notez le nom de la partitiondemo. Son statut est up et il dispose d'un maximum de 4 nœuds. Il est associé aux nœuds du groupe de compute-1 nœuds. Si vous modifiez le groupe de nœuds de calcul et augmentez le nombre maximum d'instances à 8, le nombre de nœuds sera lu 8 et la liste des nœuds sera luecompute-1-[1-8]. Si vous avez créé un deuxième groupe de nœuds de calcul nommé test avec 4 nœuds et que vous l'avez ajouté à la demo file d'attente, ces nœuds apparaîtront également dans la liste des nœuds.

Afficher les offres d'emploi

Vous pouvez répertorier toutes les tâches du système, quel que soit leur état, avecsqueue. La sortie de votre cluster doit ressembler à ce qui suit :

[ec2-user@ip-10-3-6-103 ~]$ squeue
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)

Réessayez de l'exécuter squeue ultérieurement, lorsqu'une tâche Slurm est en attente ou en cours d'exécution.