As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Instâncias de GPU recomendadas
Recomendamos uma instância de GPU para a maioria dos objetivos de aprendizado profundo. O treinamento de novos modelos é mais rápido em uma instância de GPU do que em uma instância de CPU. Você pode dimensionar de forma sublinear quando tem instâncias de várias GPUs ou usa treinamento distribuído em muitas instâncias com GPUs.
Os tipos de instância a seguir são compatíveis com a DLAMI. Para obter informações sobre as opções de tipo de instância de GPU e seus usos, consulte , Tipos de instância de EC2
nota
O tamanho do seu modelo deve ser um fator ao selecionar uma instância. Se o modelo exceder a RAM disponível de uma instância, selecione um tipo de instância diferente com memória suficiente para o aplicativo.
As instâncias P3 do Amazon EC2
têm até 8 GPUs NVIDIA Tesla V100. -
As instâncias P4 do Amazon EC2
têm até 8 GPUs NVIDIA Tesla A100. -
As instâncias P5 do Amazon EC2
têm até 8 GPUs NVIDIA Tesla H100. -
As instâncias G3 do Amazon EC2
têm até 4 GPUs NVIDIA Tesla M60. -
As instâncias G4 do Amazon EC2
têm até 4 GPUs NVIDIA T4. -
As instâncias G5 do Amazon EC2
têm até 8 GPUs NVIDIA A10G. -
As instâncias G6 do Amazon EC2 têm até 8 GPUs
NVIDIA L4. -
As instâncias G5g do Amazon EC2
têm processadores Graviton2 baseados em ARM64 AWS .
As instâncias da DLAMI oferecem ferramentas para monitorar e otimizar seus processos da GPU. Para obter mais informações sobre o monitoramento dos processos da GPU, consulte Monitoramento e otimização de GPU.
Para ver tutoriais específicos sobre como trabalhar com instâncias G5g, consulte O ARM64 DLAMI.
A seguir
Instâncias de CPU recomendadas