Ejemplos - AWS ParallelCluster

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Ejemplos

Las siguientes configuraciones de ejemplo muestran:AWS ParallelClusterconfiguraciones conSlurm,Torque, yAWS Batchprogramadores.

nota

A partir de la versión 2.11.5,AWS ParallelClusterno admite el uso deSGEoTorqueprogramadores.

Slurm Workload Manager (slurm)

El siguiente ejemplo lanza un clúster con el programador slurm. La configuración de ejemplo inicia 1 clúster con 2 colas de trabajos. La primera cola,spot, inicialmente tiene 2t3.microInstancias de spot disponibles. Puede escalar hasta un máximo de 10 instancias y reducirse hasta un mínimo de 1 instancia cuando no se han ejecutado trabajos durante 10 minutos (ajustable mediante elscaledown_idletimeconfiguración). La segunda cola,ondemand, comienza sin instancias y puede escalar hasta un máximo de 5t3.microInstancias bajo demanda.

[global] update_check = true sanity_check = true cluster_template = slurm [aws] aws_region_name = <your Región de AWS> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster slurm] key_name = <your EC2 keypair name> base_os = alinux2 # optional, defaults to alinux2 scheduler = slurm master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public queue_settings = spot,ondemand [queue spot] compute_resource_settings = spot_i1 compute_type = spot # optional, defaults to ondemand [compute_resource spot_i1] instance_type = t3.micro min_count = 1 # optional, defaults to 0 initial_count = 2 # optional, defaults to 0 [queue ondemand] compute_resource_settings = ondemand_i1 [compute_resource ondemand_i1] instance_type = t3.micro max_count = 5 # optional, defaults to 10

Son of Grid Engine(sge) yTorque Resource Manager(torque)

nota

Este ejemplo solo se aplica aAWS ParallelClusterversiones de hasta la versión 2.11.4 incluida e incluida. A partir de la versión 2.11.5,AWS ParallelClusterno admite el uso deSGEoTorqueprogramadores.

El siguiente ejemplo lanza un clúster con eltorqueosgeprogramador. Para utilizarSGE, cambiarscheduler = torqueascheduler = sge. La configuración de ejemplo le permite tener un máximo de 5 nodos simultáneos y baja a dos cuando no se ha ejecutado ningún trabajo durante un plazo de 10 minutos.

[global] update_check = true sanity_check = true cluster_template = torque [aws] aws_region_name = <your Región de AWS> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster torque] key_name = <your EC2 keypair name>but they aren't eligible for future updates base_os = alinux2 # optional, defaults to alinux2 scheduler = torque # optional, defaults to sge master_instance_type = t3.micro # optional, defaults to t3.micro vpc_settings = public initial_queue_size = 2 # optional, defaults to 0 maintain_initial_size = true # optional, defaults to false max_queue_size = 5 # optional, defaults to 10
nota

A partir de la versión 2.11.5,AWS ParallelClusterno admite el uso deSGEoTorqueprogramadores. Si utiliza estas versiones, puede seguir usándolas o la asistencia para solucionar problemas desde elAWSservicio yAWSEquipos de Support.

AWS Batch (awsbatch)

El siguiente ejemplo lanza un clúster con el programador awsbatch. Se establece para seleccionar el mejor tipo de instancia en función de las necesidades de sus recursos de trabajo.

La configuración de ejemplo le permite tener un máximo de 40 vCPUs simultáneas y baja a cero cuando no se ha ejecutado ningún trabajo durante un plazo de 10 minutos (ajustable con elscaledown_idletimeconfiguración).

[global] update_check = true sanity_check = true cluster_template = awsbatch [aws] aws_region_name = <your Región de AWS> [vpc public] master_subnet_id = <your subnet> vpc_id = <your VPC> [cluster awsbatch] scheduler = awsbatch compute_instance_type = optimal # optional, defaults to optimal min_vcpus = 0 # optional, defaults to 0 desired_vcpus = 0 # optional, defaults to 4 max_vcpus = 40 # optional, defaults to 20 base_os = alinux2 # optional, defaults to alinux2, controls the base_os of # the head node and the docker image for the compute fleet key_name = <your EC2 keypair name> vpc_settings = public