Configure a instância de trabalho híbrida para executar seu script de algoritmo - Amazon Braket

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Configure a instância de trabalho híbrida para executar seu script de algoritmo

Dependendo do seu algoritmo, você pode ter requisitos diferentes. Por padrão, o Amazon Braket executa seu script de algoritmo em uma ml.m5.large instância. No entanto, você pode personalizar esse tipo de instância ao criar um trabalho híbrido usando o seguinte argumento de importação e configuração.

from braket.jobs.config import InstanceConfig job = AwsQuantumJob.create( ... instance_config=InstanceConfig(instanceType="ml.p3.8xlarge"), # Use NVIDIA Tesla V100 instance with 4 GPUs. ... ),

Se você estiver executando uma simulação incorporada e tiver especificado um dispositivo local na configuração do dispositivo, poderá solicitar adicionalmente mais de uma instância no InstanceConfig especificando o InstanceCount e definindo-o como maior que um. O limite superior é 5. Por exemplo, você pode escolher 3 instâncias da seguinte maneira.

from braket.jobs.config import InstanceConfig job = AwsQuantumJob.create( ... instance_config=InstanceConfig(instanceType="ml.p3.8xlarge", instanceCount=3), # Use 3 NVIDIA Tesla V100 ... ),

Ao usar várias instâncias, considere distribuir seu trabalho híbrido usando o recurso de data parallel. Consulte o exemplo de caderno a seguir para obter mais detalhes sobre como ver esse exemplo de Braket.

As três tabelas a seguir listam os tipos e especificações de instância disponíveis para instâncias de computação padrão, otimizadas para computação e aceleradas.

nota

Para ver as cotas padrão de instância de computação clássica para trabalhos híbridos, consulte esta página.

Instâncias padrão vCPU Memória

ml.m5.large (padrão)

2

8 GiB

ml.m5.xlarge

4

16 GiB

ml.m5.2xlarge

8

32 GiB

ml.m5.4xlarge

16

64 GiB

ml.m5.12xlarge

48

192 GiB

ml.m5.24xlarge

96

384 GiB

ml.m4.xlarge

4

16 GiB

ml.m4.2xlarge

8

32 GiB

ml.m4.4xlarge

16

64 GiB

ml.m4.10xlarge

40

256 GiB

Instâncias otimizadas para computação vCPU Memória

ml.c4.xlarge

4

7,5 GiB

ml.c4.2xlarge

8

15 GiB

ml.c4.4xlarge

16

30 GiB

ml.c4.8xlarge

36

192 GiB

ml.c5.xlarge

4

8 GiB

ml.c5.2xlarge

8

16 GiB

ml.c5.4xlarge

16

32 GiB

ml.c5.9xlarge

36

72 GiB

ml.c5.18xlarge

72

144 GiB

ml.c5n.xlarge

4

10,5 GiB

ml.c5n.2xlarge

8

21 GiB

ml.c5n.4xlarge

16

42 GiB

ml.c5n.9xlarge

36

96 GiB

ml.c5n.18xlarge

72

192 GiB

Instâncias de computação acelerada vCPU Memória

ml.p2.xlarge

4

61 GiB

ml.p2.8xlarge

32

488 GiB

ml.p2.16xlarge

64

732 GiB

ml.p3.2xlarge

8

61 GiB

ml.p3.8xlarge

32

244 GiB

ml.p3.16xlarge

64

488 GiB

ml.g4dn.xlarge

4

16 GiB

ml.g4dn.2xlarge

8

32 GiB

ml.g4dn.4xlarge

16

64 GiB

ml.g4dn.8xlarge

32

128 GiB

ml.g4dn.12xlarge

48

192 GiB

ml.g4dn.16xlarge

64

256 GiB

nota

As instâncias p3 não estão disponíveis em us-west-1. Se seu trabalho híbrido não conseguir provisionar a capacidade computacional de ML solicitada, use outra região.

Cada instância usa uma configuração padrão de armazenamento de dados (SSD) de 30 GB. Mas você pode ajustar o armazenamento da mesma forma que configura instanceType o. O exemplo a seguir mostra como aumentar o armazenamento total para 50 GB.

from braket.jobs.config import InstanceConfig job = AwsQuantumJob.create( ... instance_config=InstanceConfig( instanceType="ml.p3.8xlarge", volumeSizeInGb=50, ), ... ),