Sección [cluster] - AWS ParallelCluster

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Sección [cluster]

Define una plantilla de clúster que se puede usar para crear un clúster. Un archivo de configuración puede contener varias[cluster] secciones.

Se puede usar la misma plantilla de clúster para crear varios clústeres.

El formato es el siguiente [cluster cluster-template-name]. La [cluster]sección nombrada por lacluster_template configuración de la [global]sección se usa de forma predeterminada, pero se puede anular en la línea depcluster comandos.

cluster-template-namedebe comenzar por una letra, no contener más de 30 caracteres y guiones inclinada (_).

[cluster default]

additional_cfn_template

(Opcional) Define unaAWS CloudFormation plantilla adicional para lanzarla junto con el clúster. Esta plantilla adicional se usa para crear recursos que están fuera del clúster pero que forman parte del ciclo de vida del clúster.

El valor debe ser una URL HTTP de una plantilla pública, con todos los parámetros proporcionados.

No hay valor predeterminado.

additional_cfn_template = https://<bucket-name>.s3.amazonaws.com/my-cfn-template.yaml

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

additional_iam_policies

(Opcional Amazon EC2 Esta lista se adjunta a la función raíz utilizada en el clúster, además de los permisos requeridosAWS ParallelCluster separados por comas. El nombre de una política de IAM y su ARN son diferentes. Los nombres no se pueden usar como argumento paraadditional_iam_policies.

Si su intención es añadir políticas adicionales a la configuración predeterminada de los nodos del clúster, le recomendamos que apruebe las políticas de IAM personalizadas adicionales con laadditional_iam_policies configuración en lugar de utilizar la ec2_iam_roleconfiguración para agregar sus políticas de EC2 específicas. Esto se debe aadditional_iam_policies que se añaden a los permisos predeterminados que seAWS ParallelCluster requieren. Una existente ec2_iam_roledebe incluir todos los permisos necesarios. Sin embargo, dado que los permisos requeridos a menudo cambian de una versión a otra a medida que se agregan funciones, una existente ec2_iam_rolepuede quedar obsoleta.

No hay valor predeterminado.

additional_iam_policies = arn:aws:iam::123456789012:policy/CustomEC2Policy
nota

El Support para additional_iam_policiesse agregó enAWS ParallelCluster la versión 2.5.0.

Política de actualización: esta configuración se puede cambiar durante una actualización.

base_os

(Obligatorio) Especifica qué tipo de sistema operativo se utiliza en el clúster.

Las opciones disponibles son:

  • alinux2

  • centos7

  • ubuntu1804

  • ubuntu2004

nota

Solo para las instanciasAWS basadas en Gravitonalinux2ubuntu1804, oubuntu2004 son compatibles.

nota

El Support para secentos8 eliminó enAWS ParallelCluster la versión 2.11.4. ubuntu2004Se agregó Support paraalinux y seubuntu1604 eliminó en laAWS ParallelCluster versión 2.11.0. Se agregó Support para y secentos6 eliminó en laAWS ParallelCluster versión 2.10.0.centos8 El Support paraalinux2 se agregó enAWS ParallelCluster la versión 2.6.0. ubuntu1804Se agregó Support para y seubuntu1404 eliminó en laAWS ParallelCluster versión 2.5.0.

Aparte de los específicosRegiones de AWS mencionados en la siguiente tabla que no son compatiblescentos7. Todas las demás regionesAWS comerciales admiten todos los siguientes sistemas operativos.

Partición (Regiones de AWS) alinux2 centos7 ubuntu1804 y ubuntu2004
Comercial (todoRegiones de AWS no mencionado específicamente) True True True
AWS GovCloud (EE. UU. Este) (us-gov-east-1) True Falso True
AWS GovCloud (EE. UU. Oeste) (us-gov-west-1) True Falso True
China (Pekín) (cn-north-1) True Falso True
China (Ningxia) (cn-northwest-1) True Falso True
nota

Elbase_os parámetro también determina el nombre de usuario que se usa para iniciar sesión en el clúster.

  • centos7: centos

  • ubuntu1804 y ubuntu2004: ubuntu

  • alinux2: ec2-user

nota

Antes de laAWS ParallelCluster versión 2.7.0, elbase_os parámetro era opcional y el predeterminado lo eraalinux. A partir deAWS ParallelCluster la versión 2.7.0, se requiere elbase_os parámetro.

nota

Si el parámetro scheduler es awsbatch, solo se admite alinux2.

base_os = alinux2

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

cluster_resource_bucket

(Opcional) Especifica el nombre del bucket de Amazon S3 que se usa para alojar los recursos que se generan cuando se crea el clúster. El bucket debe tener habilitado el control de versiones. Para obtener más información, consulte Uso del control de versiones en la guía del usuario de Amazon Simple Storage Service. Este depósito se puede usar para varios clústeres. El bucket debe estar en la misma región que el clúster.

Si no se especifica este parámetro, se crea un bucket nuevo cuando se crea el clúster. El nuevo depósito tiene el nombre deparallelcluster-random_string. En este nombre, random_string es una cadena aleatoria de caracteres alfanuméricos. Todos los recursos del clúster se almacenan en este bucket en una ruta con el formulariobucket_name/resource_directory. resource_directorytiene el formulariostack_name-random_string, donde stack_name es el nombre de una de lasAWS CloudFormation pilas utilizadas porAWS ParallelCluster. El valor de bucket_name se encuentra en elResourcesS3Bucket valor de la salida de laparallelcluster-clustername pila. El valor de resource_directory se encuentra en el valor de laArtifactS3RootDirectory salida de la misma pila.

El valor predeterminado es parallelcluster-random_string.

cluster_resource_bucket = my-s3-bucket
nota

El Support paracluster_resource_bucket se agregó en laAWS ParallelCluster versión 2.10.10.10.10.0.

Política de actualización: si se cambia esta configuración, la actualización no está permitida. No se puede forzar la actualización de esta configuración.

cluster_type

(Opcional) Define el tipo de clúster que se va a lanzar. Si laqueue_settings configuración está definida, esta configuración debe sustituirse por lacompute_type configuración de las [queue]secciones.

Las opciones válidas son: ondemand y spot.

El valor predeterminado es ondemand.

Para obtener más información acerca de las instancias de Spot, consulte Uso de Instancias de spot.

nota

El uso de instancias puntual requiere que elAWSServiceRoleForEC2Spot rol vinculado al servicio exista en la cuenta. Para crear esta función en la cuentaAWS CLI, ejecute el siguiente comando:

aws iam create-service-linked-role --aws-service-name spot.amazonaws.com

Para obtener más información, consulte Uso rol vinculado a servicio para solicitudes de instancias de spot en la guía del usuario de Amazon EC2 para instancias de Linux.

cluster_type = ondemand

Política de actualización: la flota de procesamiento debe estar detenida para poder cambiar esta configuración para una actualización.

compute_instance_type

(Opcional) Define el tipo de instancia de Amazon EC2 que se usa para los nodos de procesamiento del clúster. La arquitectura del tipo de instancia debe ser la misma que la arquitectura utilizada para lamaster_instance_type configuración. Si laqueue_settings configuración está definida, esta configuración debe sustituirse por lainstance_type configuración de las [compute_resource]secciones.

Si utilizas elawsbatch programador, consulta la creación de entornos informáticos en laAWS Batch interfaz de usuario para ver una lista de los tipos de instancias compatibles.

El valor predeterminado es t2.micro, optimal cuando el programador es awsbatch.

compute_instance_type = t2.micro
nota

La SupportAWS con instancias basadas en Graviton (incluidasA1 lasC6g instancias) se agregó enAWS ParallelCluster la versión 2.8.0.

Política de actualización: la flota de procesamiento debe estar detenida para poder cambiar esta configuración para una actualización.

compute_root_volume_size

(Opcional GiB. ComputeFleet La AMI debe admitir growroot.

El valor predeterminado es 35.

nota

ParaAWS ParallelCluster las versiones comprendidas entre 2.5.0 y 2.10.4, el valor predeterminado era 25. Antes deAWS ParallelCluster la versión 2.5.0, el valor predeterminado era 20.

compute_root_volume_size = 35

Política de actualización: la flota de procesamiento debe estar detenida para poder cambiar esta configuración para una actualización.

custom_ami

(Opcional) Especifica el ID de una AMI personalizada que se utilizará en los nodos principales y de procesamiento en lugar de en las AMI publicadas por defecto. Para obtener más información, consulte Modificar una AMI de o Creación de una AMI de AWS ParallelCluster personalizada.

No hay valor predeterminado.

custom_ami = ami-00d4efc81188687a0

Si la AMI personalizada requiere permisos adicionales para su lanzamiento, estos permisos deben agregarse a las políticas de usuario y de nodo principal.

Por ejemplo, si una AMI personalizada tiene asociada una instantánea cifrada, se requieren las siguientes políticas adicionales en las políticas de usuario y de nodo principal:

{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "kms:DescribeKey", "kms:ReEncrypt*", "kms:CreateGrant", "kms:Decrypt" ], "Resource": [ "arn:aws:kms:<AWS_REGION>:<AWS_ACCOUNT_ID>:key/<AWS_KMS_KEY_ID>" ] } ] }

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

cw_log_settings

(Opcional) Identifica la[cw_log] sección con la configuración de CloudWatch registros. El nombre de la sección debe comenzar por una letra, no contener más de 30 caracteres y guiones inclinada (_).

Para obtener más información, consulte la [cw_log]sección CloudWatch Panel de control de Amazon, yIntegración con Amazon CloudWatch Logs.

Por ejemplo, la siguiente configuración especifica que la sección que se inicia[cw_log custom-cw] se utiliza para la configuración de CloudWatch registros.

cw_log_settings = custom-cw
nota

El Support paracw_log_settings se agregó enAWS ParallelCluster la versión 2.6.0.

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

dashboard_settings

(Opcional) Identifica la[dashboard] sección con la configuración del CloudWatch tablero. El nombre de la sección debe comenzar por una letra, no contener más de 30 caracteres y guiones inclinada (_).

Para obtener más información, consulte la [dashboard]sección.

Por ejemplo, la siguiente configuración especifica que la sección que se inicia[dashboard custom-dashboard se utiliza para la configuración del CloudWatch tablero.

dashboard_settings = custom-dashboard
nota

El Support paradashboard_settings se agregó en laAWS ParallelCluster versión 2.10.10.10.10.0.

Política de actualización: esta configuración se puede cambiar durante una actualización.

dcv_settings

(Opcional) Identifica la[dcv] sección con la configuración NICE DCV. El nombre de la sección debe comenzar por una letra, no contener más de 30 caracteres y guiones inclinada (_).

Para obtener más información, consulte la [dcv]sección.

Por ejemplo, la siguiente configuración especifica que la sección que se inicia[dcv custom-dcv] se usa para la configuración de NICE DCV.

dcv_settings = custom-dcv
nota

En las instanciasAWS basadas en Graviton, NICE DCV solo es compatible conalinux2.

nota

El Support paradcv_settings se agregó enAWS ParallelCluster la versión 2.5.0.

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

desired_vcpus

(Opcional) Especifica la cantidad deseada de vCPUs en el entorno informático. Solo se utiliza si el programador es awsbatch.

El valor predeterminado es 4.

desired_vcpus = 4

Política de actualización: esta configuración no se analiza durante una actualización.

disable_cluster_dns

(Opcional) Especifica si no se deben crear las entradas DNS del clúster. De forma predeterminada,AWS ParallelCluster crea una zona alojada de Route 53. Sidisable_cluster_dns se establece entrue, la zona alojada no se crea.

El valor predeterminado es false.

disable_cluster_dns = true
aviso

Se requiere un sistema de resolución de nombres para que el clúster funcione correctamente. Sidisable_cluster_dns se establece entrue, también se debe proporcionar un sistema de resolución de nombres adicional.

importante

disable_cluster_dns= solotrue se admite si se especifica laqueue_settings configuración.

nota

El Support paradisable_cluster_dns se agregó enAWS ParallelCluster la versión 2.9.1.

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

disable_hyperthreading

(Opcional) Deshabilita el hipersubprocesamiento en los nodos de procesamiento y de cabecera. No todos los tipos de instancias pueden deshabilitar la tecnología Hyper-Threading. Para obtener una lista de los tipos de instancias que admiten la inhabilitación de hipersubprocesos, consulte los núcleos y subprocesos de CPU de cada núcleo de CPU para cada tipo de instancia en la Guía del usuario de Amazon EC2 para instancias de Linux. Si laqueue_settings configuración está definida, puede definirse esta configuración o puede definirse ladisable_hyperthreading configuración de [queue]las secciones.

El valor predeterminado es false.

disable_hyperthreading = true
nota

disable_hyperthreadingsolo afecta al nodo principal cuandoscheduler = awsbatch.

nota

El Support paradisable_hyperthreading se agregó enAWS ParallelCluster la versión 2.5.0.

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

ebs_settings

(Opcional) Identifica las[ebs] secciones con los volúmenes de Amazon EBS que están montados en el nodo principal. Cuando utilice varios volúmenes de Amazon EBS, introduzca estos parámetros en una lista con cada uno separado por una coma. El nombre de la sección debe comenzar por una letra, no contener más de 30 caracteres y guiones inclinada (_).

Se admiten hasta cinco (5) volúmenes adicionales de Amazon EBS.

Para obtener más información, consulte la [ebs]sección.

Por ejemplo, la siguiente configuración especifica las secciones que comienzan[ebs custom1] y se[ebs custom2] utilizan para los volúmenes de Amazon EBS.

ebs_settings = custom1, custom2

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

ec2_iam_role

(Opcional) Define el nombre de un rol de IAM existente para Amazon EC2 que está adjunto a todas las instancias del clúster. Un nombre de rol de IAM y su Nombre de recurso de Amazon (ARN) son distintos. Los ARN no se pueden utilizar como argumento paraec2_iam_role.

Si se especifica esta opción, se omite el valor additional_iam_policies. Si su intención es añadir políticas adicionales a la configuración predeterminada de los nodos del clúster, le recomendamos que apruebe las políticas de IAM personalizadas adicionales con la additional_iam_policiesconfiguración en lugar de utilizar laec2_iam_role configuración.

Si no se especifica esta opción, se utiliza la función deAWS ParallelCluster IAM predeterminada para Amazon EC2. Para obtener más información, consulte AWS Identity and Access Managementfunciones enAWS ParallelCluster.

No hay valor predeterminado.

ec2_iam_role = ParallelClusterInstanceRole

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

efs_settings

(Opcional) Especifica la configuración relacionada con el sistema de archivos de Amazon EFS. El nombre de la sección debe comenzar por una letra, no contener más de 30 caracteres y guiones inclinada (_).

Para obtener más información, consulte la [efs]sección.

Por ejemplo, la siguiente configuración especifica que la sección que se inicia[efs customfs] se utiliza para la configuración del sistema de archivos Amazon EFS.

efs_settings = customfs

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

enable_efa

(Opcional) Si está presente, especifica que el Elastic Fabric Adapter (EFA) está habilitado para los nodos de procesamiento. Para ver la lista de instancias de EC2 que admiten EFA, consulte los tipos de instancias compatibles en la Guía del usuario de Amazon EC2 para instancias de Linux. Para obtener más información, consulte Elastic Fabric Adapter. Si laqueue_settings configuración está definida, puede definirse esta configuración o puede definirse laenable_efa configuración de la [queue]sección. Se debe utilizar un grupo de ubicación del clúster para minimizar las latencias entre instancias. Para obtener más información, consulte placement y placement_group.

enable_efa = compute
nota

La Support con EFA en instancias de Graviton2 basadas en ARM se agregó enAWS ParallelCluster la versión 2.10.1.

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

enable_efa_gdr

(Opcional) A partir deAWS ParallelCluster la versión 2.11.3, esta configuración no surte efecto. La compatibilidad del Elastic Fabric Adapter (EFA) con el RDMA (acceso remoto directo a la memoria) de GPUDirect siempre está habilitada si lo admiten tanto el tipo de instancia como el sistema operativo.

nota

AWS ParallelClusterversión 2.10.0 a 2.11.2: Sicompute, especifica que la compatibilidad del Elastic Fabric Adapter (EFA) con el RDMA (acceso remoto directo a la memoria) de GPUDirect está habilitada para los nodos de procesamiento. Para establecer esta configuración, escompute necesario que laenable_efa configuración esté establecida encompute. El soporte de EFA para GPUDirect RDMA lo admiten tipos de instancias específicos (p4d.24xlarge) en sistemas operativos específicos (base_osesalinux2centos7ubuntu1804, oubuntu2004). Si laqueue_settings configuración está definida, puede definirse esta configuración o puede definirse laenable_efa_gdr configuración de [queue]las secciones. Se debe utilizar un grupo de ubicación del clúster para minimizar las latencias entre instancias. Para obtener más información, consulte placement y placement_group.

enable_efa_gdr = compute
nota

El Support paraenable_efa_gdr se agregó en laAWS ParallelCluster versión 2.10.10.10.10.0.

Política de actualización: la flota de procesamiento debe estar detenida para poder cambiar esta configuración para una actualización.

enable_intel_hpc_platform

(Opcional) Si está presente, indica que se acepta el acuerdo de licencia de usuario final de Intel Parallel Studio. Esto hace que Intel Parallel Studio se instale en el nodo principal y se comparta con los nodos de procesamiento. Esto añade varios minutos al tiempo que tarda el nodo principal en arrancar. El valor de enable_intel_hpc_platform solo se admite en CentOS 7 (base_os = centos7).

El valor predeterminado es false.

enable_intel_hpc_platform = true
nota

Elenable_intel_hpc_platform parámetro no es compatible con las instanciasAWS basadas en Graviton.

nota

El Support paraenable_intel_hpc_platform se agregó enAWS ParallelCluster la versión 2.5.0.

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

encrypted_ephemeral

(Opcional) Cifra los volúmenes efímeros del almacén de instancias con claves en memoria no recuperables mediante LUKS (configuración de clave unificada de Linux).

Para obtener más información, consulte https://gitlab.com/cryptsetup/cryptsetup/blob/master/README.md.

El valor predeterminado es false.

encrypted_ephemeral = true

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

ephemeral_dir

(Opcional) Define la ruta en la que se montan los volúmenes del almacén de instancias si se utilizan.

El valor predeterminado es /scratch.

ephemeral_dir = /scratch

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

extra_json

(Opcional) Define el JSON adicional que se fusiona enChefdna.json. Para obtener más información, consulte Creación de una AMI de AWS ParallelCluster personalizada.

El valor predeterminado es {}.

extra_json = {}
nota

A partir de laAWS ParallelCluster versión 2.6.1, la mayoría de las recetas de instalación se omiten de forma predeterminada al iniciar los nodos para mejorar los tiempos de inicio. Para ejecutar todas las recetas de instalación y lograr una mejor compatibilidad con versiones anteriores a costa de los tiempos de inicio, agréguelas"skip_install_recipes" : "no" a lacluster clave de laextra_json configuración. Por ejemplo:

extra_json = { "cluster" : { "skip_install_recipes" : "no" } }

Política de actualización: la flota de procesamiento debe estar detenida para poder cambiar esta configuración para una actualización.

fsx_settings

(Opcional) Especifica la sección que define la configuración de FSx for Lustre. El nombre de la sección debe comenzar por una letra, no contener más de 30 caracteres y guiones inclinada (_).

Para obtener más información, consulte la [fsx]sección.

Por ejemplo, la siguiente configuración especifica que la sección que se inicia[fsx fs] se usa para la configuración de FSx for Lustre.

fsx_settings = fs

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

iam_lambda_role

(Opcional) Define el nombre de un rol deAWS Lambda ejecución existente. Esta función está asociada a todas las funciones de Lambda del clúster. Para obtener más información, consulte Rol de ejecución de AWS Lambda en la Guía para desarrolladores de AWS Lambda.

nota

A partir de la versión 2.11.5,AWS ParallelCluster no admite el uso deSGE niTorque programadores.

Un nombre de rol de IAM y su Nombre de recurso de Amazon (ARN) son distintos. Los ARN no se pueden utilizar como argumento paraiam_lambda_role. Si ambosec2_iam_roleiam_lambda_role están definidos, y elscheduler essgeslurm, otorque, entonces no se crearán roles. Sischeduler es asíawsbatch, entonces se crearán roles durantepcluster start. Para ver políticas, consulteParallelClusterLambdaPolicyutilizandoSGESlurm, oTorque yParallelClusterLambdaPolicy con awsbatch.

No hay valor predeterminado.

iam_lambda_role = ParallelClusterLambdaRole
nota

El Support paraiam_lambda_role se agregó enAWS ParallelCluster la versión 2.10.1.

Política de actualización: esta configuración se puede cambiar durante una actualización.

initial_queue_size

(Opcional) Establece el número inicial de instancias Amazon EC2 que se van a lanzar como nodos de procesamiento en el clúster. Si laqueue_settings configuración está definida, esta configuración debe eliminarse y reemplazarse por lainitial_count configuración de las [compute_resource]secciones.

nota

A partir de la versión 2.11.5,AWS ParallelCluster no admite el uso deSGE niTorque programadores.

Esta configuración solo se aplica a los programadores tradicionales (SGE, Slurm y Torque). Si lamaintain_initial_size configuración estrue, entonces lainitial_queue_size configuración debe ser al menos una (1).

Si el programador es awsbatch, utilice min_vcpus en su lugar.

El valor predeterminado es 2.

initial_queue_size = 2

Política de actualización: esta configuración se puede cambiar durante una actualización.

key_name

(Opcional) Asigna un key pair existente de Amazon EC2 con el que se permite el acceso de SSH a las instancias.

key_name = mykey
nota

Antes deAWS ParallelCluster la versión 2.11.11.0,key_name era una configuración requerida.

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

maintain_initial_size

nota

A partir de la versión 2.11.5,AWS ParallelCluster no admite el uso deSGE niTorque programadores.

(Opcional) Mantiene el tamaño inicial del grupo de Auto Scaling para los programadores tradicionales (SGESlurm, yTorque).

Si el programador es awsbatch, utilice desired_vcpus en su lugar.

Esta configuración es un indicador booleano. Si se establece entrue, el grupo Auto Scaling nunca tendrá menos miembros que el valor deinitial_queue_size y el valor deinitial_queue_size debe ser uno (1) o mayor. El clúster también se puede ampliar y escalar hasta el valor de max_queue_size. Si escluster_type = spot así, el grupo Auto Scaling puede tener instancias interrumpidas y el tamaño puede disminuirinitial_queue_size.

Si se establece enfalse, el grupo Auto Scaling puede reducir su tamaño a cero (0) miembros para evitar que los recursos permanezcan inactivos cuando no son necesarios.

Si laqueue_settings configuración está definida, esta configuración debe eliminarse y sustituirse por lamin_count configuracióninitial_count y en las [compute_resource]secciones.

El valor predeterminado es false.

maintain_initial_size = false

Política de actualización: esta configuración se puede cambiar durante una actualización.

master_instance_type

(Opcional) Define el tipo de instancia de Amazon EC2 que se utiliza para el nodo principal. La arquitectura del tipo de instancia debe ser la misma que la arquitectura utilizada para lacompute_instance_type configuración.

En lasRegiones de AWS que tienen un nivel gratuito, el tipo de instancia de nivel gratuito (o) predeterminado es el tipo (t2.microot3.micro) de instancia de nivel gratuito. EnRegiones de AWS los que no tienen un nivel gratuito, el valor predeterminado est3.micro. Para obtener más información sobre la capaAWS gratuita, consulte Preguntas frecuentes sobre la capaAWS gratuita.

master_instance_type = t2.micro
nota

Antes deAWS ParallelCluster la versión 2.10.1, estaba predeterminadot2.micro en todasRegiones de AWS. EnAWS ParallelCluster la versión 2.10.0, nop4d.24xlarge era compatible con el nodo principal. La SupportAWS con instancias basadas en Graviton (comoA1 yC6g) se agregó enAWS ParallelCluster la versión 2.8.0.

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

master_root_volume_size

(Opcional) Especifica el tamaño del volumen raíz del nodo principal en gibibytes (GiB). La AMI debe admitir growroot.

El valor predeterminado es 35.

nota

ParaAWS ParallelCluster las versiones comprendidas entre 2.5.0 y 2.10.4, el valor predeterminado era 25. Antes deAWS ParallelCluster la versión 2.5.0, el valor predeterminado era 20.

master_root_volume_size = 35

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

max_queue_size

(Opcional) Establece el número máximo de instancias Amazon EC2 que se pueden lanzar en el clúster. Si laqueue_settings configuración está definida, esta configuración debe eliminarse y reemplazarse por lamax_count configuración de las [compute_resource]secciones.

nota

A partir de la versión 2.11.5,AWS ParallelCluster no admite el uso deSGE niTorque programadores.

Esta configuración solo se aplica a los programadores tradicionales (SGE, Slurm y Torque).

Si el programador es awsbatch, utilice max_vcpus en su lugar.

El valor predeterminado es 10.

max_queue_size = 10

Política de actualización: esta configuración se puede cambiar durante una actualización, pero se debe detener la flota de cómputos si se reduce el valor. De lo contrario, los nodos existentes pueden terminar.

max_vcpus

(Opcional) Especifica la cantidad máxima de vCPUs en el entorno informático. Solo se utiliza si el programador es awsbatch.

El valor predeterminado es 20.

max_vcpus = 20

Política de actualizaciones: esta configuración no se puede reducir durante una actualización.

min_vcpus

(Opcional) Mantiene el tamaño inicial del grupo de Auto Scaling delawsbatch planificador.

nota

A partir de la versión 2.11.5,AWS ParallelCluster no admite el uso deSGE niTorque programadores.

Si el programador es SGE, Slurm o Torque, utilice maintain_initial_size en su lugar.

El entorno informático nunca tendrá menos miembros que el valor de min_vcpus.

El valor predeterminado es 0.

min_vcpus = 0

Política de actualización: esta configuración se puede cambiar durante una actualización.

placement

(Opcional) Define la lógica del grupo de ubicación del clúster, lo que permite que todo el clúster o solo las instancias de procesamiento utilicen el grupo de ubicación de clústeres.

Si laqueue_settings configuración está definida, esta configuración debe eliminarse y reemplazarse por laplacement_group configuración de cada una de las [queue]secciones. Si se usa el mismo grupo de ubicación para diferentes tipos de instancias, es más probable que la solicitud falle debido a un error de capacidad insuficiente. Para obtener más información, consulte Capacidad de instancias insuficiente en la guía del usuario de Amazon EC2 para instancias de Linux. Varias colas solo pueden compartir un grupo de ubicación si se crea de antemano y se configura en laplacement_group configuración de cada cola. Si cada [queue]sección define unaplacement_group configuración, el nodo principal no puede estar en el grupo de ubicación de una cola.

Las opciones válidas son cluster o compute.

Este parámetro no se usa cuando el programador sí lo estáawsbatch.

El valor predeterminado es compute.

placement = compute

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

placement_group

(Opcional) Define el grupo con ubicación en clúster. Si laqueue_settings configuración está definida, esta configuración debe eliminarse y reemplazarse por laplacement_group configuración de las [queue]secciones.

Las opciones válidas son los siguientes valores:

  • DYNAMIC

  • Un nombre de grupo de ubicación de clústeres de Amazon EC2 existente

Cuando se establece en DYNAMIC, se crea y elimina un grupo de ubicación único como parte de la pila del clúster.

Este parámetro no se usa cuando el programador sí lo estáawsbatch.

Para obtener más información sobre los grupos de ubicación, consulte Grupos de ubicación en la Guía del usuario de Amazon EC2 para instancias de Linux. Si se usa el mismo grupo de ubicación para diferentes tipos de instancias, es más probable que la solicitud falle debido a un error de capacidad insuficiente. Para obtener más información, consulte Capacidad de instancias insuficiente en la guía del usuario de Amazon EC2 para instancias de Linux.

No hay valor predeterminado.

No todos los tipos de instancias admiten grupos de ubicación en clúster. Por ejemplo, el tipo de instancia predeterminado det3.micro no admite grupos de ubicación de clústeres. Para obtener información sobre la lista de tipos de instancias que admiten grupos de ubicación en clúster, consulte Reglas y limitaciones Amazon EC2 de ubicación en clúster. Consulte Problemas de lanzamiento de instancias y grupos de ubicación para obtener sugerencias al trabajar con grupos de ubicación.

placement_group = DYNAMIC

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

post_install

(Opcional) Especifica la URL de un script posterior a la instalación que se ejecuta una vez finalizadas todas las acciones de arranque del nodo. Para obtener más información, consulte Acciones de arranque personalizadas.

Cuando se usaawsbatch como programador, el script posterior a la instalación solo se ejecuta en el nodo principal.

El formato de los parámetros puede ser http://hostname/path/to/script.sh o s3://bucketname/path/to/script.sh.

No hay valor predeterminado.

post_install = s3://<bucket-name>/my-post-install-script.sh

Política de actualización: la flota de procesamiento debe estar detenida para poder cambiar esta configuración para una actualización.

post_install_args

(Opcional) Especifica una lista de argumentos entre comillas para pasarlos al script posterior a la instalación.

No hay valor predeterminado.

post_install_args = "argument-1 argument-2"

Política de actualización: la flota de procesamiento debe estar detenida para poder cambiar esta configuración para una actualización.

pre_install

(Opcional) Especifica la URL de un script de preinstalación que se ejecuta antes de iniciar cualquier acción de arranque de despliegue de nodos. Para obtener más información, consulte Acciones de arranque personalizadas.

Cuando se usaawsbatch como programador, el script de preinstalación solo se ejecuta en el nodo principal.

El formato de los parámetros puede ser http://hostname/path/to/script.sh o s3://bucketname/path/to/script.sh.

No hay valor predeterminado.

pre_install = s3://<bucket-name>/my-pre-install-script.sh

Política de actualización: la flota de procesamiento debe estar detenida para poder cambiar esta configuración para una actualización.

pre_install_args

(Opcional) Especifica una lista de argumentos entre comillas para pasarlos al script de preinstalación.

No hay valor predeterminado.

pre_install_args = "argument-3 argument-4"

Política de actualización: la flota de procesamiento debe estar detenida para poder cambiar esta configuración para una actualización.

proxy_server

(Opcional) Por lo general, define un servidor proxy HTTP o HTTPShttp://x.x.x.x:8080.

No hay valor predeterminado.

proxy_server = http://10.11.12.13:8080

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

queue_settings

(Opcional) Especifica que el clúster usa colas en lugar de una flota de procesamiento homogénea y qué [queue]secciones se utilizan. La primera [queue]sección de la lista es la cola de programadores predeterminada. Los nombres de lasqueue secciones deben comenzar por una letra minúscula, no contener más de 30 caracteres y solo letras minúsculas, guiones (-)

importante

queue_settingssolo se admite cuandoscheduler está configurado enslurm. Nocluster_type se deben especificar losspot_price parámetroscompute_instance_typeinitial_queue_sizemaintain_initial_sizemax_queue_sizeplacementplacement_group,,,,,, y. Laenable_efa configuracióndisable_hyperthreading y se puede especificar en la [cluster]sección o en las [queue]secciones, pero no en ambas.

Se admiten hasta cinco (5) [queue]secciones.

Para obtener más información, consulte la [queue]sección.

Por ejemplo, la siguiente configuración especifica las secciones que se inician[queue q1] y se[queue q2] utilizan.

queue_settings = q1, q2
nota

El Support paraqueue_settings se agregó enAWS ParallelCluster la versión 2.9.0.

Política de actualización: la flota de procesamiento debe estar detenida para poder cambiar esta configuración para una actualización.

raid_settings

(Opcional) Identifica la[raid] sección con la configuración de RAID por volumen de Amazon EBS. El nombre de la sección debe comenzar por una letra, no contener más de 30 caracteres y guiones inclinada (_).

Para obtener más información, consulte la [raid]sección.

Por ejemplo, la siguiente configuración especifica que la sección que comienza se[raid rs] utilizará para la configuración de Auto Scaling.

raid_settings = rs

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

s3_read_resource

(Opcional) Especifica un recurso de Amazon S3 al queAWS ParallelCluster los nodos tienen acceso de solo lectura.

Por ejemplo,arn:aws:s3:::my_corporate_bucket* proporciona acceso de solo lectura al bucket my_corporate_bucket y a los objetos del bucket.

Consulte Trabajar con Amazon S3 para obtener más información sobre el formato.

No hay valor predeterminado.

s3_read_resource = arn:aws:s3:::my_corporate_bucket*

Política de actualización: esta configuración se puede cambiar durante una actualización.

s3_read_write_resource

(Opcional) Especifica un recurso de Amazon S3 al queAWS ParallelCluster los nodos tienen acceso de lectura/escritura.

Por ejemplo,arn:aws:s3:::my_corporate_bucket/Development/* proporciona acceso de lectura/escritura a todos los objetos de laDevelopment carpeta del bucket my_corporate_bucket.

Consulte Trabajar con Amazon S3 para obtener más información sobre el formato.

No hay valor predeterminado.

s3_read_write_resource = arn:aws:s3:::my_corporate_bucket/*

Política de actualización: esta configuración se puede cambiar durante una actualización.

scaling_settings

Identifica la[scaling] sección con la configuración de Auto Scaling. El nombre de la sección debe comenzar por una letra, no contener más de 30 caracteres y guiones inclinada (_).

Para obtener más información, consulte la [scaling]sección.

Por ejemplo, la siguiente configuración especifica que la sección que se inicia[scaling custom] se usa para la configuración de Auto Scaling.

scaling_settings = custom

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

scheduler

(Obligatorio) Define el programador de clúster.

Las opciones válidas son los siguientes valores:

awsbatch

AWS Batch

Para obtener más información sobre elawsbatch programador, consulte Configuración de redes yAWS Batch (awsbatch).

sge
nota

A partir de la versión 2.11.5,AWS ParallelCluster no admite el uso deSGE niTorque programadores.

Son of Grid Engine (SGE)

slurm

Slurm Workload Manager (Slurm)

torque
nota

A partir de la versión 2.11.5,AWS ParallelCluster no admite el uso deSGE niTorque programadores.

Torque Resource Manager (Torque)

nota

Antes de laAWS ParallelCluster versión 2.7.0, elscheduler parámetro era opcional y el predeterminado lo erasge. A partir deAWS ParallelCluster la versión 2.7.0, se requiere elscheduler parámetro.

scheduler = slurm

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

shared_dir

(Opcional) Define la ruta en la que está montado el volumen compartido de Amazon EBS.

No utilice esta opción con varios volúmenes de Amazon EBS. En su lugar, proporcioneshared_dir valores en cada [ebs]sección.

Consulte la [ebs]sección para obtener más información sobre cómo trabajar con varios volúmenes de Amazon EBS.

El valor predeterminado es /shared.

El siguiente ejemplo muestra un volumen compartido de Amazon EBS montado en/myshared.

shared_dir = myshared

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

spot_bid_percentage

(Opcional) Establece el porcentaje bajo demanda que se utiliza para calcular el ComputeFleet precio spot máximo para el programador.awsbatch

Si no se especifica, se selecciona el precio de mercado de spot actual con el precio bajo demanda como límite.

spot_bid_percentage = 85

Política de actualización: esta configuración se puede cambiar durante una actualización.

spot_price

nota

A partir de la versión 2.11.5,AWS ParallelCluster no admite el uso deSGE niTorque programadores.

(Opcional) Establece el precio spot máximo para los programadores tradicionales (SGESlurm, yTorque). ComputeFleet Solo se utiliza cuando la configuración cluster_type se establece en spot. Si no especifica un valor, se le cobrará el precio de spot, limitado al precio bajo demanda. Si laqueue_settings configuración está definida, esta configuración debe eliminarse y reemplazarse por laspot_price configuración de las [compute_resource]secciones.

Si el programador es awsbatch, utilice spot_bid_percentage en su lugar.

Para obtener ayuda para encontrar una instancia puntual que satisfaga sus necesidades, consulte al asesor de instancias puntuales.

spot_price = 1.50
nota

EnAWS ParallelCluster la versión 2.5.0, si se especificacluster_type = spot perospot_price no se especifica, la instancia se inicia por ComputeFleet error. Esto se corrigió enAWS ParallelCluster la versión 2.5.1.

Política de actualización: esta configuración se puede cambiar durante una actualización.

tags

(Opcional) Define las etiquetas que van a utilizarAWS CloudFormation.

Si se especifican etiquetas de línea de comandos a través de --tags, se combinan con etiquetas de configuración.

Las etiquetas de la línea de comandos sobrescriben las etiquetas de configuración que tienen la misma clave.

Las etiquetas están en formato JSON. No utilices comillas fuera de los corchetes.

Para obtener más información, consulte el tipoAWS CloudFormation de etiquetas de recursos en la Guía delAWS CloudFormation usuario.

tags = {"key" : "value", "key2" : "value2"}

Política de actualización: si se cambia esta configuración, la actualización no está permitida.

nota

La política de actualización no permitía cambiar latags configuración de laAWS ParallelCluster versión 2.8.0 a la 2.9.1.

Para las versiones 2.10.0 a 2.11.7, la política de actualizaciones enumerada que permitía cambiar latags configuración no es precisa. No se admite la actualización de clúster al modificar esta configuración.

template_url

(Opcional) Define la ruta a laAWS CloudFormation plantilla que se usa para crear el clúster.

Actualiza la plantilla que se utilizó originalmente para crear la pila.

El valor predeterminado es https://aws_region_name-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-version.cfn.json.

aviso

Este es un parámetro avanzado. Cualquier cambio en esta configuración se realiza por su cuenta y riesgo.

template_url = https://us-east-1-aws-parallelcluster.s3.amazonaws.com/templates/aws-parallelcluster-2.11.9.cfn.json

Política de actualización: esta configuración no se analiza durante una actualización.

vpc_settings

(Obligatorio) Identifica la[vpc] sección con la configuración de Amazon VPC en la que se implementa el clúster. El nombre de la sección debe comenzar por una letra, no contener más de 30 caracteres y guiones inclinada (_).

Para obtener más información, consulte la [vpc]sección.

Por ejemplo, la siguiente configuración especifica que la sección que se inicia[vpc public] se usa para la configuración de Amazon VPC.

vpc_settings = public

Política de actualización: si se cambia esta configuración, la actualización no está permitida.