Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Configure la instancia de trabajo para ejecutar el script del algoritmo
Dependiendo de tu algoritmo, es posible que tengas diferentes requisitos. De forma predeterminada,Amazon Braket ejecuta el script del algoritmo en unaml.m5.large
instancia. Sin embargo, puede personalizar este tipo de instancia al crear un trabajo mediante el siguiente argumento de importación y configuración.
from braket.jobs.config import InstanceConfig job = AwsQuantumJob.create( ... instance_config=InstanceConfig(instanceType="ml.p3.8xlarge"), # Use NVIDIA Tesla V100 instance with 4 GPUs. ... ),
Si está ejecutando una simulación incrustada y ha especificado un dispositivo local en la configuración del dispositivo, también podrá solicitar más de una instancia en ella InstanceConfig especificando el InstanceCount y configurándolo para que sea superior a uno. El límite superior es 5. Por ejemplo, puede elegir 3 instancias de la siguiente manera.
from braket.jobs.config import InstanceConfig job = AwsQuantumJob.create( ... instance_config=InstanceConfig(instanceType="ml.p3.8xlarge", instanceCount=3), # Use 3 NVIDIA Tesla V100 ... ),
Cuando utilice varias instancias, considere la posibilidad de distribuir el trabajo mediante la función de datos parallel. Consulte el siguiente cuaderno de ejemplos para obtener más información sobre cómo ver este ejemplo de Braket
En las tres tablas siguientes se enumeran los tipos de instancias y las especificaciones disponibles para las instancias de computación estándar, optimizadas para procesamiento y aceleradas.
Para ver las cuotas de instancias de cómputos clásicas predeterminadas para Hybrid Jobs, consulta esta página.
Instancias estándar | vCPU | Memoria |
---|---|---|
ml.m5.large (predeterminado) |
2 |
8 GiB |
ml.m5.xlarge |
4 |
16 GiB |
ml.m5.2xlarge |
8 |
32 GiB |
ml.m5.4xlarge |
16 |
64 GiB |
ml.m5.12xlarge |
48 |
192 GiB |
ml.m5.24xlarge |
96 |
384 GiB |
ml.m4.xlarge |
4 |
16 GiB |
ml.m4.2xlarge |
8 |
32 GiB |
ml.m4.4xlarge |
16 |
64 GiB |
ml.m4.10xlarge |
40 |
256 GiB |
Instancias optimizadas para computación | vCPU | Memoria |
---|---|---|
ml.c4.xlarge |
4 |
7,5 GiB |
ml.c4.2xlarge |
8 |
15 GiB |
ml.c4.4xlarge |
16 |
30 GiB |
ml.c4.8xlarge |
36 |
192 GiB |
ml.c5.xlarge |
4 |
8 GiB |
ml.c5.2xlarge |
8 |
16 GiB |
ml.c5.4xlarge |
16 |
32 GiB |
ml.c5.9xlarge |
36 |
72 GiB |
ml.c5.18xlarge |
72 |
144 GiB |
ml.c5n.xlarge |
4 |
10,5 GiB |
ml.c5n.2 x grande |
8 |
21 GiB |
ml.c5n.4 x grande |
16 |
42 GiB |
ml.c5n. 9 x grande |
36 |
96 GiB |
ml.c5n. 18 x grande |
72 |
192 GiB |
Instancias de computación acelerada | vCPU | Memoria |
---|---|---|
ml.p2.xlarge |
4 |
61 GiB |
ml.p2.8xlarge |
32 |
488 GiB |
ml.p2.16xlarge |
64 |
732 GiB |
ml.p3.2xlarge |
8 |
61 GiB |
ml.p3.8xlarge |
32 |
244 GiB |
ml.p3.16xlarge |
64 |
488 GiB |
ml.g4dn.xlarge |
4 |
16 GiB |
ml.g4dn.2xlarge |
8 |
32 GiB |
ml.g4dn.4xlarge |
16 |
64 GiB |
ml.g4dn.8xlarge |
32 |
128 GiB |
ml.g4dn.12xlarge |
48 |
192 GiB |
ml.g4dn.16xlarge |
64 |
256 GiB |
Las instancias p3 no están disponibles en us-west-1. Si su trabajo no puede aprovisionar la capacidad informática de aprendizaje automático solicitada, utilice otra región.
Cada instancia usa una configuración predeterminada de almacenamiento de datos (SSD) de 30 GB. Sin embargo, puede ajustar el almacenamiento de la misma manera que configurainstanceType
. En el ejemplo siguiente se muestra cómo aumentar el almacenamiento total a 50 GB.
from braket.jobs.config import InstanceConfig job = AwsQuantumJob.create( ... instance_config=InstanceConfig( instanceType="ml.p3.8xlarge", volumeSizeInGb=50, ), ... ),