Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Configure la instancia de trabajo híbrida para ejecutar el script de su algoritmo
En función del algoritmo, es posible que tenga requisitos diferentes. De forma predeterminada, Amazon Braket ejecuta el script del algoritmo en una ml.m5.large
instancia. Sin embargo, puedes personalizar este tipo de instancia al crear un trabajo híbrido mediante el siguiente argumento de importación y configuración.
from braket.jobs.config import InstanceConfig job = AwsQuantumJob.create( ... instance_config=InstanceConfig(instanceType="ml.p3.8xlarge"), # Use NVIDIA Tesla V100 instance with 4 GPUs. ... ),
Si está ejecutando una simulación integrada y ha especificado un dispositivo local en la configuración del dispositivo, también podrá solicitar más de una instancia en el InstanceConfig especificando el InstanceCount y configurándolo para que sea mayor que uno. El límite superior es 5. Por ejemplo, puede elegir 3 instancias de la siguiente manera.
from braket.jobs.config import InstanceConfig job = AwsQuantumJob.create( ... instance_config=InstanceConfig(instanceType="ml.p3.8xlarge", instanceCount=3), # Use 3 NVIDIA Tesla V100 ... ),
Cuando utilice varias instancias, considere la posibilidad de distribuir su trabajo híbrido mediante la función data parallel. Consulte el siguiente cuaderno de ejemplo para obtener más información sobre cómo ver este ejemplo de Braket
En las tres tablas siguientes se enumeran los tipos de instancias y las especificaciones disponibles para las instancias de computación estándar, optimizada y acelerada.
nota
Para ver las cuotas predeterminadas de instancias informáticas clásicas para Hybrid Jobs, consulta esta página.
Instancia estándar | vCPU | Memoria |
---|---|---|
ml.m5.large (predeterminado) |
2 |
8 GiB |
ml.m5.xlarge |
4 |
16 GiB |
ml.m5.2xlarge |
8 |
32 GiB |
ml.m5.4xlarge |
16 |
64 GiB |
ml.m5.12xlarge |
48 |
192 GiB |
ml.m5.24xlarge |
96 |
384 GiB |
ml.m4.xlarge |
4 |
16 GiB |
ml.m4.2xlarge |
8 |
32 GiB |
ml.m4.4xlarge |
16 |
64 GiB |
ml.m4.10xlarge |
40 |
256 GiB |
Instancias optimizadas para computación | vCPU | Memoria |
---|---|---|
ml.c4.xlarge |
4 |
7,5 GiB |
ml.c4.2xlarge |
8 |
15 GiB |
ml.c4.4xlarge |
16 |
30 GiB |
ml.c4.8xlarge |
36 |
192 GiB |
ml.c5.xlarge |
4 |
8 GiB |
ml.c5.2xlarge |
8 |
16 GiB |
ml.c5.4xlarge |
16 |
32 GiB |
ml.c5.9xlarge |
36 |
72 GiB |
ml.c5.18xlarge |
72 |
144 GiB |
ml.c5n.xlarge |
4 |
10,5 GiB |
ml.c5n.2xlarge |
8 |
21 GiB |
ml.c5n.4xlarge |
16 |
42 GiB |
ml.c5n.9xlarge |
36 |
96 GiB |
ml.c5n.18xlarge |
72 |
192 GiB |
Instancias de computación acelerada | vCPU | Memoria |
---|---|---|
ml.p2.xlarge |
4 |
61 GiB |
ml.p2.8xlarge |
32 |
488 GiB |
ml.p2.16xlarge |
64 |
732 GiB |
ml.p3.2xlarge |
8 |
61 GiB |
ml.p3.8xlarge |
32 |
244 GiB |
ml.p3.16xlarge |
64 |
488 GiB |
ml.g4dn.xlarge |
4 |
16 GiB |
ml.g4dn.2xlarge |
8 |
32 GiB |
ml.g4dn.4xlarge |
16 |
64 GiB |
ml.g4dn.8xlarge |
32 |
128 GiB |
ml.g4dn.12xlarge |
48 |
192 GiB |
ml.g4dn.16xlarge |
64 |
256 GiB |
nota
Las instancias p3 no están disponibles en us-west-1. Si su trabajo híbrido no puede aprovisionar la capacidad informática de aprendizaje automático solicitada, utilice otra región.
Cada instancia usa una configuración predeterminada de almacenamiento de datos (SSD) de 30 GB. Sin embargo, puede ajustar el almacenamiento de la misma manera que configura elinstanceType
. El siguiente ejemplo muestra cómo aumentar el almacenamiento total a 50 GB.
from braket.jobs.config import InstanceConfig job = AwsQuantumJob.create( ... instance_config=InstanceConfig( instanceType="ml.p3.8xlarge", volumeSizeInGb=50, ), ... ),