Instâncias de computação acelerada do Linux
nota
Para obter especificações detalhadas sobre os tipos de instância, consulte o Guia de tipos de instâncias do Amazon EC2. Para obter informações de preço, consulte Tipos de instância do Amazon EC2
As instâncias de computação acelerada usam aceleradores de hardware, ou coprocessadores, para executar, com mais eficiência, algumas funções, como cálculos de número de ponto flutuante, processamento gráfico ou correspondência de padrões de dados, do que o possível em software executado em CPUs. Essas instâncias permitem mais paralelismo para obter uma throughput maior em workloads com alta quantidade de computação.
Se você precisar de alta capacidade de processamento, se beneficiará do uso das instâncias de computação acelerada que concedem acesso aos aceleradores de computação com base em hardware como Graphics Processing Units (GPUs), Field Programmable Gate Arrays (FPGAs) ou AWS Inferentia.
Tópicos
- Instâncias de GPU
- Instâncias com AWS Trainium
- Instâncias com o AWS Inferentia
- Instâncias com aceleradores Habana
- Instâncias com aceleradores Qualcomm
- Instâncias de transcodificação de vídeo
- Instâncias FPGA
- Especificações de hardware
- Performance da instância
- Performance das redes
- Performance de E/S do Amazon EBS
- Performance de E/S de volume de armazenamento de instância baseada em SSD
- Notas de release
- Começar a usar instâncias P5
- Instalar drivers NVIDIA nas instâncias do Linux
- Instalar drivers AMD nas instâncias do Linux
- Configurar monitores Dual 4K no G4ad
- Ativar NVIDIA GRID Virtual Applications
- Para otimizar as configurações de GPU
Instâncias de GPU
As instâncias baseadas em GPU concedem acesso a GPUs NVIDIA com milhares de núcleos de computação. É possível essas instâncias para acelerar aplicações científicas, de engenharia e renderização utilizando as estruturas de computação paralela CUDA ou Open Computing Language (OpenCL). Também é possível usá-las para aplicações gráficas, incluindo transmissão de jogos, transmissão de aplicações 3-D e outras workloads gráficas.
Instâncias G5
As instâncias G5 usam GPUs NVIDIA A10G e oferecem alta performance para aplicações com uso intensivo de elementos gráficos, como estações de trabalho remotas, processamento de vídeo e jogos em nuvem, e modelos de aprendizado profundo para aplicações como processamento de linguagem natural, visão computacional e mecanismos de recomendação. Essas instâncias oferecem até 8 GPUs NVIDIA A10G, processadores AMD EPYC de segunda geração, até 100 Gbps de largura de banda da rede e até 7,6 TB de armazenamento SSD NVMe local.
Para obter mais informações, consulte Instâncias G5 do Amazon EC2
Instâncias G5g
As instâncias G5g usam GPUs NVIDIA T4G e oferecem alta performance para aplicações com uso intenso de elementos gráficos, como transmissão e processamento de jogos que fazem uso das APIs padrão do setor, como OpenGL e Vulkan. Essas instâncias também são adequadas para executar modelos de aprendizado profundo para aplicações como processamento de linguagem natural e visão computacional. Essas instâncias têm até 2 GPUs NVIDIA T4G Tensor Core, processadores AWS Graviton2 e até 25 Gbps de largura de banda de rede.
Para obter mais informações, consulte Instâncias G5g do Amazon EC2
Instâncias G4ad e G4dn
As instâncias G4ad usam GPUs AMD Radeon Pro V520 e processadores AMD EPYC de 2ª geração e são adequadas para aplicações gráficas como estações de trabalho gráficas remotas, transmissão de jogos e renderização que aproveitam APIs padrão do setor, como OpenGL, DirectX e Vulkan. Elas fornecem até 4 GPUs AMD Radeon Pro V520, 64 vCPUs, rede de 25 Gbps e armazenamento SSD local baseado em NVME de 2,4 TB.
As instâncias G4dn usam GPUs NVIDIA Tesla e oferecem uma plataforma de alta performance e bom custo/benefício para computação com GPU de uso geral usando as estruturas CUDA ou de machine learning junto com aplicações gráficas que usam DirectX ou OpenGL. Essas instâncias proporcionam uso de rede de alta largura de banda, recursos avançados de ponto flutuante de precisão simples e meia precisão, além de precisões INT8 e INT4. Cada GPU tem 16 GiB de memória GDDR6, tornando as instâncias G4dn adequadas para inferência de machine learning, transcodificação de vídeo e aplicações gráficas, como estações de trabalho gráficas remotas e transmissão de jogos na nuvem.
Para obter mais informações, consulte Instâncias G4 do Amazon EC2
As instâncias G4dn são compatíveis com NVIDIA GRID Virtual Workstation. Para obter mais informações, consulte as ofertas da NVIDIA no Marketplace
Instâncias G3
Essas instâncias usam GPUs NVIDIA Tesla M60 e fornecem uma plataforma de alta performance, econômica, para aplicações gráficas que utilizam DirectX ou OpenGL. As instâncias G3 também fornecem recursos do NVIDIA GRID Virtual Workstation, como suporte para quatro monitores com resoluções de até 4096 x 2160, e NVIDIA GRID Virtual Applications. As instâncias G3 são adequadas para visualizações 3D, estações de trabalho remotas de uso intenso da placa de vídeo, renderização 3D, codificação de vídeo, realidade virtual e outras workloads gráfico no lado do servidor, que exigem potência de processamento altamente paralela.
Para obter mais informações, consulte Instâncias G3 do Amazon EC2
As instâncias G3 oferecem suporte a NVIDIA GRID Virtual Workstation e NVIDIA GRID Virtual Applications. Para ativar qualquer um desses recursos, consulte Ativar NVIDIA GRID Virtual Applications.
Instâncias G2
Essas instâncias usam GPUs NVIDIA GRID K520 e fornecem uma plataforma de alta performance, econômica, para aplicações gráficas que utilizam DirectX ou OpenGL. Os GPUs NVIDIA GRID também oferecem suporte às operações de API de codificação e captura rápida NVIDIA. As aplicações de exemplo incluem serviços de criação de vídeo, visualizações 3D, aplicações de uso intenso de gráfico de transmissão e outras workloads no lado do servidor.
Instâncias P5
As instâncias P5 fornecem 8 GPUs NVIDIA H100 com 640 GB de memória de GPU com alta largura de banda. Elas oferecem processadores AMD EPYC de 3ª geração e fornecem 2 TB de memória de sistema, 30 TB de armazenamento de instância NVMe local, largura de banda de rede agregada de 3.200 Gbps e suporte a RDMA GPUDirect. As instâncias P5 também oferecem suporte à tecnologia Amazon EC2 UltraCluster, que fornece menor latência e melhor performance de rede usando o EFA. Para workloads de machine learning e HPC, as instâncias P5 oferecem performance até 6 vezes maior do que as instâncias de GPU da geração anterior.
As instâncias P5 podem acelerar uma ampla variedade de workloads habilitadas por GPU e são adequadas para aplicações distribuídas de machine learning e computação de alto desempenho em grande escala.
Para obter mais informações, consulte Instâncias P5 do Amazon EC2
Instâncias P4d
Essas instâncias usam GPUs NVIDIA A100 e fornecem uma plataforma de alta performance para machine learning e workloads HPC. As instâncias P4d oferecem 400 Gbps de throughput de largura de banda de rede agregada e suporte, Elastic Fabric Adapter (EFA). Elas são as primeiras instâncias do EC2 a fornecer várias placas de rede.
Para obter mais informações, consulte Instâncias P4d do Amazon EC2
As instâncias P4d são compatíveis com a interconexão NVIDIA NVSwitch GPU e NVIDIA GPUDirect RDMA.
As instâncias P4de oferecem GPUs NVIDIA 80GB-A100s
Instâncias P3
Essas instâncias usam GPUs NVIDIA Tesla V100 e são projetadas para computação de GPU de uso geral que usa os modelos de programação CUDA ou OpenCL ou através um framework de Machine Learning. As instâncias P3 fornecem redes de alta largura de banda, recursos avançados de ponto flutuante de meia precisão, precisão única e dupla e até 32 GiB de memória por GPU, o que as torna ideais para deep learning, dinâmica computacional fluída, finanças computacionais, análise sísmica, modelagem molecular, genômica, renderização e outras workloads de computação de GPU no lado do servidor. As GPUs Tesla V100 não dão suporte ao modo de gráficos.
Para obter mais informações, consulte Instâncias P3 do Amazon EC2
As instâncias P3 oferecem suporte a transferências par a par NVIDIA NVLink. Para obter mais informações, consulte NVIDIA NVLink
Instâncias P2
As instâncias P2 usam GPUs NVIDIA Tesla K80 e são projetadas para computação de GPU de uso geral que usa os modelos de programação CUDA ou OpenCL. As instâncias P2 fornecem redes de alta largura de banda, recursos avançados de ponto flutuante de precisão única e dupla e 12 GiB de memória por GPU, o que as torna ideais para deep learning, bancos de dados gráficos, bancos de dados de alta performance, fluidodinâmica computacional, finanças computacionais, análise sísmica, modelagem molecular, genômica, renderização e outras workloads de computação de GPU no lado do servidor.
As instâncias P2 oferecem suporte a transferências par a par NVIDIA GPUDirect. Para obter mais informações, consulte NVIDIA GPUDirect
Instâncias com AWS Trainium
As instâncias Trn1 e Trn1n do Amazon EC2, baseadas no AWS Trainium
Para obter mais informações, consulte Instâncias Trn1 do Amazon EC2
Instâncias com o AWS Inferentia
Estas instâncias foram projetadas para acelerar o machine learning usando o AWS Inferentia
É possível começar de diversas maneiras:
-
Use o SageMaker, um serviço totalmente gerenciado que é a maneira mais fácil de começar a usar modelos de machine learning. Para obter informações, consulte What Is Amazon SageMaker? (O que é o Amazon SageMaker?) no Guia do desenvolvedor do Amazon SageMaker.
-
Inicie uma instância Inf1 ou Inf2 usando a AMI de aprendizado profundo. Para obter mais informações, consulte AWS Inferentia com DLAMI no Guia do desenvolvedor do AWS Deep Learning AMI.
-
Execute uma instância Inf1 ou Inf2 usando sua própria AMI e instale o AWS Neuron SDK
, que permite compilar, executar e criar perfis de modelos de aprendizado profundo para o AWS Inferentia. -
Inicie uma instância de contêiner usando uma instância Inf1 ou Inf2 e uma AMI otimizada para o Amazon ECS. Para obter mais informações, consulte AMIs do Amazon Linux 2 (Inferentia) no Amazon Elastic Container Service Developer Guide.
-
Crie um cluster do Amazon EKS com nós executando instâncias Inf1. Para obter mais informações, consulte Inferentia support (Suporte para Inferentia) no Amazon EKS User Guide (Manual do usuário do Amazon EKS).
Para obter mais informações, consulte Machine Learning na AWS
Instâncias Inf1
As instâncias Inf1 usam chips de inferência de machine learning do AWS Inferentia. O Inferentia foi desenvolvido para permitir uma performance de inferência altamente econômico e de baixa latência em qualquer escala.
Para obter mais informações, consulte Instâncias Inf1 do Amazon EC2
Instâncias Inf2
As instâncias Inf2 usam chips de inferência de machine learning do AWS Inferentia2. Essas instâncias de segunda geração oferecem até 25% de melhoria no custo por inferência em relação às instâncias Inf1 e até 70% melhor no custo por inferência em relação às instâncias do Amazon EC2 comparáveis. Essas instâncias são ideais para uma ampla variedade de workloads que usam modelos de aprendizado profundo.
Para obter mais informações, consulte Instâncias Inf2 do Amazon EC2
Instâncias com aceleradores Habana
Essas instâncias foram projetadas para acelerar as workloads de treinamento do modelo de aprendizado profundo (DL). Usam aceleradores da Habana Labs, uma empresa da Intel. Essas instâncias são otimizadas para modelos de DL para aplicações como reconhecimento de imagem, detecção e classificação de objetos e sistemas de recomendação.
Para obter mais informações, consulte Machine Learning na AWS
Instâncias DL1
As instâncias DL1 usam aceleradores Habana Gaudi. Oferecem até 400 Gbps de largura de banda agregada de rede, juntamente com 32 GB de memória de alta largura de banda (HBM) por acelerador. As instâncias DL1 foram projetadas para fornecer alta performance e economia para o treinamento de modelos de aprendizado profundo.
É possível começar de diversas maneiras:
-
Inicie uma instância DL1 usando a Habana Deep Learning AMI.
-
Inicie uma instância DL1 usando sua própria AMI e instale os drivers Habana e o SDK do Habana SynapseAI
. -
Execute uma instância de contêiner usando uma instância DL1 e uma AMI otimizada para Amazon ECS.
-
Crie um cluster do Amazon EKS com nós executando instâncias DL1.
Para obter mais informações, consulte as instâncias DL1 do Amazon EC2
Instâncias com aceleradores Qualcomm
DL2q
As instâncias DL2q usam aceleradores de inferência Qualcomm AI100, que têm núcleos Qualcomm Edge AI de 7ª geração. Elas podem ser usadas de modo econômico para implantar workloads de aprendizado profundo (DL) na nuvem ou para validar a performance e a precisão das workloads de DL que serão implantadas nos dispositivos de borda da Qualcomm.
As instâncias DL2q são compatíveis com até 1,4 petaFLOPS de performance de machine learning com 8 aceleradores Qualcomm AI100, 96 vCPUs em duas CPUs Intel Cascade Lake, 768 GB de memória do sistema e 100 Gbps de largura de banda da rede. Cada acelerador Qualcomm AI100 fornece até 175 TFLOPs de performance de FP16 e 16 GB de memória de acelerador.
As instâncias DL2q são ideais para validar workloads IA de borda antes de implantá-las em smartphones, automóveis, robótica e fones de ouvido de realidade estendida. Elas também são compatíveis com inferência na nuvem para executar aplicações populares de DL, como geração de conteúdo, análise de imagens, resumo de texto e assistentes virtuais.
Para começar a usar as instâncias DL2q, recomendamos que você use a AMI de aprendizado profundo (DLAMI) da AWS, que vem de fábrica com o kit de desenvolvimento de software (SDK) para as aplicações e a plataforma Qualcomm, e estruturas populares de machine learning, como a PyTorch e a TensorFlow.
Para obter mais informações, consulte Instâncias DL2q do Amazon EC2
Instâncias de transcodificação de vídeo
Essas instâncias foram projetadas para acelerar workloads de transcodificação de vídeo, como transmissão ao vivo, videoconferência e transcodificação just-in-time.
Instâncias do VT1
As instâncias VT1 apresentam aceleradores de mídia Xilinx Alveo U30 e são projetadas para workloads de transcodificação de vídeo ao vivo. Essas instâncias oferecem até 8 placas de aceleração Xilinx Alveo U30, fornecem até 192 GB de memória do sistema e até 25 Gbps de largura de banda de rede. As instâncias VT1 apresentam codecs H.264/AVC e H.265/HEVC e oferecem suporte a resoluções de até 4K UHD para transcodificação de múltiplas transmissões de vídeo.
É possível começar de diversas maneiras:
-
Inicie uma instância VT1 usando as AMIs Xilinx U30 no AWS Marketplace.
-
Inicie uma instância VT1 usando sua própria AMI e instale os drivers do Xilinx U30 e o SDK de vídeo do Xilinx
. -
Inicie uma instância de contêiner usando uma instância VT1 e uma AMI otimizada para o Amazon ECS.
-
Crie um cluster do Amazon EKS com nós executando instâncias VT1.
Para obter mais informações, consulte Instâncias VT1 do Amazon EC2
Instâncias FPGA
As instâncias baseadas em FPGA concedem acesso a FPGAs grandes, com milhões de células lógicas de sistema paralelo. É possível usar instâncias de computação acelerada baseadas em FPGA para acelerar workloads, como análise financeira, genômica, processamento de vídeo em tempo real, análise de big data e workloads de segurança utilizando acelerações de hardware personalizadas. É possível desenvolver essas acelerações usando linguagens de descrição de hardware, como Verilog ou VHDL, ou usando linguagens de nível superior, como estruturas de computação paralela OpenCL. É possível desenvolver seu próprio código de aceleração de hardware ou adquirir acelerações de hardware por meio do AWS Marketplace
A AMI do desenvolvedor de FPGA
Para obter mais informações, consulte a documentação do Kit de desenvolvimento de hardware do AWS FPGA
Instâncias F1
As instâncias F1 usam FPGAs Xilinx UltraScale+ VU9P e foram projetadas para acelerar algoritmos que usam muita computação, como fluxo de dados ou operações altamente paralelas, não indicadas para CPUs de uso geral. Cada FPGA em uma instância F1 contém aproximadamente 2,5 milhões de elementos de lógica e cerca de 6.800 mecanismos DSP (Processamento de sinal digital), junto com 64 GiB de memória protegida por DDR ECCE local, conectados à instância por uma conexão dedicada PCIe Gen3 x16. As instâncias F1 fornecem volumes SSD NVMe locais.
Os desenvolvedores podem usar o kit do desenvolvedor de hardware da AWS e a AMI do desenvolvedor de FPGA para criar acelerações de hardware personalizadas para uso em instâncias F1. A AMI do desenvolvedor de FPGA inclui ferramentas de desenvolvimento para o desenvolvimento de FPGA de ciclo completo na nuvem. Usando essas ferramentas, os desenvolvedores podem criar e compartilhar imagens de FPGA da Amazon que podem ser carregadas na FPGA de uma instância F1.
Para obter mais informações, consulte Instâncias F1 do Amazon EC2
Especificações de hardware
Este é um resumo das especificações de hardware para instâncias de computação acelerada. Uma unidade de processamento central virtual (vCPU) representa uma parte da CPU física atribuída a uma máquina virtual (VM). Para instâncias x86, existem duas vCPUs por núcleo. Para instâncias Graviton, há uma vCPU por núcleo.
Tipo de instância | vCPUs padrão | Memória (GiB) | Aceleradores |
---|---|---|---|
dl1.24xlarge | 96 | 768,00 | 8 GPUs |
dl2q.24xlarge | 96 | 768,00 | 8 aceleradores de inferência |
f1.2xlarge | 8 | 122,00 | 1 FPGA |
f1.4xlarge | 16 | 244,00 | 2 FPGAs |
f1.16xlarge | 64 | 976,00 | 8 FPGAs |
g2.2xlarge | 8 | 15,00 | 1 GPU |
g2.8xlarge | 32 | 60,00 | 4 GPUs |
g3.4xlarge | 16 | 122,00 | 1 GPU |
g3.8xlarge | 32 | 244,00 | 2 GPUs |
g3.16xlarge | 64 | 488,00 | 4 GPUs |
g4ad.xlarge | 4 | 16,00 | 1 GPU |
g4ad.2xlarge | 8 | 32,00 | 1 GPU |
g4ad.4xlarge | 16 | 64,00 | 1 GPU |
g4ad.8xlarge | 32 | 128,00 | 2 GPUs |
g4ad.16xlarge | 64 | 256,00 | 4 GPUs |
g4dn.xlarge | 4 | 16,00 | 1 GPU |
g4dn.2xlarge | 8 | 32,00 | 1 GPU |
g4dn.4xlarge | 16 | 64,00 | 1 GPU |
g4dn.8xlarge | 32 | 128,00 | 1 GPU |
g4dn.12xlarge | 48 | 192,00 | 4 GPUs |
g4dn.16xlarge | 64 | 256,00 | 1 GPU |
g4dn.metal | 96 | 384,00 | 8 GPUs |
g5.xlarge | 4 | 16,00 | 1 GPU |
g5.2xlarge | 8 | 32,00 | 1 GPU |
g5.4xlarge | 16 | 64,00 | 1 GPU |
g5.8xlarge | 32 | 128,00 | 1 GPU |
g5.12xlarge | 48 | 192,00 | 4 GPUs |
g5.16xlarge | 64 | 256,00 | 1 GPU |
g5.24xlarge | 96 | 384,00 | 4 GPUs |
g5.48xlarge | 192 | 768,00 | 8 GPUs |
g5g.xlarge | 4 | 8,00 | 1 GPU |
g5g.2xlarge | 8 | 16,00 | 1 GPU |
g5g.4xlarge | 16 | 32,00 | 1 GPU |
g5g.8xlarge | 32 | 64,00 | 1 GPU |
g5g.16xlarge | 64 | 128,00 | 2 GPUs |
g5g.metal | 64 | 128,00 | 2 GPUs |
inf1.xlarge | 4 | 8,00 | 1 acelerador de inferência |
inf1.2xlarge | 8 | 16,00 | 1 acelerador de inferência |
inf1.6xlarge | 24 | 48,00 | 4 aceleradores de inferência |
inf1.24xlarge | 96 | 192,00 | 16 aceleradores de inferência |
inf2.xlarge | 4 | 16,00 | 1 acelerador de inferência |
inf2.8xlarge | 32 | 128,00 | 1 acelerador de inferência |
inf2.24xlarge | 96 | 384,00 | 6 aceleradores de inferência |
inf2.48xlarge | 192 | 768,00 | 12 aceleradores de inferência |
p2.xlarge | 4 | 61,00 | 1 GPU |
p2.8xlarge | 32 | 488,00 | 8 GPUs |
p2.16xlarge | 64 | 732,00 | 16 GPUs |
p3.2xlarge | 8 | 61,00 | 1 GPU |
p3.8xlarge | 32 | 244,00 | 4 GPUs |
p3.16xlarge | 64 | 488,00 | 8 GPUs |
p3dn.24xlarge | 96 | 768,00 | 8 GPUs |
p4d.24xlarge | 96 | 1152,00 | 8 GPUs |
p4de.24xlarge | 96 | 1152,00 | 8 GPUs |
p5.48xlarge | 192 | 2048,00 | 8 GPUs |
trn1.2xlarge | 8 | 32,00 | |
trn1.32xlarge | 128 | 512,00 | |
trn1n.32xlarge | 128 | 512,00 | |
vt1.3xlarge | 12 | 24,00 | |
vt1.6xlarge | 24 | 48,00 | |
vt1.24xlarge | 96 | 192,00 |
nota
As instâncias trn1n.32xlarge apresentam 16 aceleradores Trainium.
As instâncias Trn1 apresentam o seguinte número de aceleradores Trainium.
-
trn1.2xlarge
: 1 -
trn1.32xlarge
: 16
As instâncias Trn1 apresentam o seguinte número de aceleradores U30.
-
vt1.3xlarge
: 1 -
vt1.6xlarge
: 2 -
vt1.24xlarge
: 16
As instâncias com computação acelerada usam os seguintes processadores.
Processadores AWS Graviton
-
AWS Graviton2: G5g
Processadores AMD
-
Processadores AMD EPYC de 2ª geração (AMD EPYC 7R32): G4ad, G5
-
Processadores AMD EYPC de terceira geração (AMD EYPC 7R13): P5
Processadores Intel
-
Processadores Intel Xeon Scalable (Broadwell E5-2686 v4): F1, G3, P2, P3
-
Processadores escaláveis Intel Xeon (Skylake 8175): P3dn
-
Processadores Intel Xeon Scalable de segunda geração (Cascade Lake P-8275CL): DL1, P4d, P4de
-
Processadores Intel Xeon Scalable de segunda geração (Cascade Lake P-8259L): DL2q, G4dn, Inf1, VT1
-
Processadores Intel Xeon Scalable de terceira geração (Cascade Lake 8375C): Trn1
Para obter especificações detalhadas sobre os tipos de instância, consulte o Guia de tipos de instâncias do Amazon EC2. Para obter informações de preço, consulte Tipos de instância do Amazon EC2
Performance da instância
Há várias otimizações de configuração de GPU que é possível executar para obter melhor performance em suas instâncias. Para ter mais informações, consulte Para otimizar as configurações de GPU.
As instâncias otimizadas para EBS permitem que você tenha uma performance consistentemente alta para seus volumes do EBS ao eliminar a contenção entre E/S do Amazon EBS e outros tráfegos de rede da sua instância. As instâncias de computação acelerada são otimizadas para EBS por padrão, sem nenhum custo adicional. Para ter mais informações, consulte Instâncias otimizadas para Amazon EBS.
Alguns tipos de instância de computação acelerada fornecem a habilidade de controlar C-states do processador e P-states no Linux. Os C-states controlam os níveis de suspensão em que um núcleo pode entrar quando estiver inativo, enquanto os P-states controlam a performance desejada (em frequência da CPU) de um núcleo. Para obter mais informações, consulte Controle do estado do processo para a instância do EC2.
Performance das redes
É possível habilitar a rede avançada em tipos de instâncias compatíveis para fornecer latências mais baixas, jitter de rede mais baixo e melhor performance de pacotes por segundo (PPS). A maioria das aplicações não precisa de um alto nível de performance de rede constantemente, mas pode se beneficiar com uma largura de banda maior ao enviar ou receber dados. Para ter mais informações, consulte Rede avançada no Linux.
Este é um resumo da performance de rede para instâncias de computação acelerada que oferecem suporte às redes aprimoradas.
nota
Tipos de instâncias indicadas por um † têm uma largura de banda de linha de base e podem usar um mecanismo de crédito de E/S de rede para ultrapassar sua largura de banda de linha de base conforme o melhor esforço. Para obter mais informações, consulte a largura de banda da rede.
Tipo de instância | Performance de rede | Recursos de rede avançados |
---|---|---|
dl1.24xlarge |
4x 100 gigabits | ENA | EFA |
dl2q.24xlarge |
100 gigabits | ENA | EFA |
f1.2xlarge † |
Até 10 gigabits | ENA |
f1.4xlarge † |
Até 10 gigabits | ENA |
f1.16xlarge |
25 gigabits | ENA |
g2.2xlarge |
Moderada | Não suportado |
g2.8xlarge |
Alta | Não suportado |
g3.4xlarge † |
Até 10 gigabits | ENA |
g3.8xlarge |
10 gigabits | ENA |
g3.16xlarge |
25 gigabits | ENA |
g4ad.xlarge † |
Até 10 gigabits | ENA |
g4ad.2xlarge † |
Até 10 gigabits | ENA |
g4ad.4xlarge † |
Até 10 gigabits | ENA |
g4ad.8xlarge |
15 gigabits | ENA |
g4ad.16xlarge |
25 gigabits | ENA |
g4dn.xlarge † |
Até 25 gigabits | ENA |
g4dn.2xlarge † |
Até 25 gigabits | ENA |
g4dn.4xlarge † |
Até 25 gigabits | ENA |
g4dn.8xlarge |
50 gigabits | ENA | EFA |
g4dn.12xlarge |
50 gigabits | ENA | EFA |
g4dn.16xlarge |
50 gigabits | ENA | EFA |
g4dn.metal |
100 gigabits | ENA | EFA |
g5.xlarge † |
Até 10 gigabits | ENA |
g5.2xlarge † |
Até 10 gigabits | ENA |
g5.4xlarge † |
Até 25 gigabits | ENA |
g5.8xlarge |
25 gigabits | ENA | EFA |
g5.12xlarge |
40 gigabits | ENA | EFA |
g5.16xlarge |
25 gigabits | ENA | EFA |
g5.24xlarge |
50 gigabits | ENA | EFA |
g5.48xlarge |
100 gigabits | ENA | EFA |
g5g.xlarge † |
Até 10 gigabits | ENA |
g5g.2xlarge † |
Até 10 gigabits | ENA |
g5g.4xlarge † |
Até 10 gigabits | ENA |
g5g.8xlarge |
12 gigabits | ENA |
g5g.16xlarge |
25 gigabits | ENA |
g5g.metal |
25 gigabits | ENA |
inf1.xlarge † |
Até 25 gigabits | ENA |
inf1.2xlarge † |
Até 25 gigabits | ENA |
inf1.6xlarge |
25 gigabits | ENA |
inf1.24xlarge |
100 gigabits | ENA | EFA |
inf2.xlarge † |
Até 15 gigabits | ENA |
inf2.8xlarge † |
Até 25 gigabits | ENA |
inf2.24xlarge |
50 gigabits | ENA |
inf2.48xlarge |
100 gigabits | ENA |
p2.xlarge |
Alta | ENA |
p2.8xlarge |
10 gigabits | ENA |
p2.16xlarge |
25 gigabits | ENA |
p3.2xlarge † |
Até 10 gigabits | ENA |
p3.8xlarge |
10 gigabits | ENA |
p3.16xlarge |
25 gigabits | ENA |
p3dn.24xlarge |
100 gigabits | ENA | EFA |
p4d.24xlarge |
4x 100 gigabits | ENA | EFA |
p4de.24xlarge |
4x 100 gigabits | ENA | EFA |
p5.48xlarge |
3.200 gigabits | ENA | EFA |
trn1.2xlarge † |
Até 12,5 gigabits | ENA |
trn1.32xlarge |
8x 100 gigabits | ENA | EFA |
trn1n.32xlarge |
16x 100 gigabits | ENA | EFA |
vt1.3xlarge |
3,12 gigabits | ENA |
vt1.6xlarge |
6,25 gigabits | ENA |
vt1.24xlarge |
25 gigabits | ENA | EFA |
A tabela a seguir mostra a largura de banda de linha de base e explodir para tipos de instância que usam o mecanismo de crédito de E/S de rede para ultrapassar sua largura de banda de linha de base conforme o melhor esforço.
Tipo de instância | Largura de banda da linha de base (Gbps) | Expansão da largura de banda (Gbps) |
---|---|---|
f1.2xlarge |
2,5 | 10 |
f1.4xlarge |
5 | 10 |
g3.4xlarge |
5 | 10 |
g4ad.xlarge |
2.0 | 10.0 |
g4ad.2xlarge |
4,167 | 10.0 |
g4ad.4xlarge |
8,333 | 10.0 |
g4dn.xlarge |
5,0 | 25.0 |
g4dn.2xlarge |
10.0 | 25.0 |
g4dn.4xlarge |
20.0 | 25.0 |
g5.xlarge |
2,5 | 10.0 |
g5.2xlarge |
5,0 | 10.0 |
g5.4xlarge |
10.0 | 25.0 |
g5g.xlarge |
1,25 | 10.0 |
g5g.2xlarge |
2,5 | 10.0 |
g5g.4xlarge |
5,0 | 10.0 |
inf1.xlarge |
5,0 | 25.0 |
inf1.2xlarge |
5,0 | 25.0 |
inf2.xlarge |
2,083 | 15,0 |
inf2.8xlarge |
16,667 | 25.0 |
trn1.2xlarge |
3.125 | 12,5 |
Performance de E/S do Amazon EBS
As instâncias otimizadas para o Amazon EBS usam uma pilha de configuração otimizada e fornecem capacidade adicional dedicada para E/S do Amazon EBS. Essa otimização proporciona a melhor performance para seus volumes do Amazon EBS ao minimizar a contenção entre a E/S do Amazon EBS e outro tráfego de sua instância.
Para ter mais informações, consulte Instâncias otimizadas para Amazon EBS.
Performance de E/S de volume de armazenamento de instância baseada em SSD
Se você usar a AMI do Linux com kernel versão 4.4 ou superior e utilizar todos os volumes de armazenamento de instâncias baseados em SSD disponíveis para sua instância, será possível obter a performance de IOPS (tamanho de bloco de 4.096 bytes) na tabela a seguir (na saturação de profundidade de fila). Do contrário, você terá uma performance de IOPS inferior.
Tamanho de instância | 100% de IOPS de leitura aleatória | IOPS de gravação |
---|---|---|
dl1.24xlarge |
1000000 | 800000 |
g4ad.xlarge |
10417 | 8333 |
g4ad.2xlarge |
20833 | 16667 |
g4ad.4xlarge |
41667 | 33333 |
g4ad.8xlarge |
83333 | 66667 |
g4ad.16xlarge |
166666 | 133332 |
g4dn.xlarge |
42500 | 32500 |
g4dn.2xlarge |
42500 | 32500 |
g4dn.4xlarge |
85000 | 65000 |
g4dn.8xlarge |
250000 | 200000 |
g4dn.12xlarge |
250000 | 200000 |
g4dn.16xlarge |
250000 | 200000 |
g4dn.metal |
500000 | 400000 |
g5.xlarge |
40625 | 20313 |
g5.2xlarge |
40625 | 20313 |
g5.4xlarge |
125000 | 62500 |
g5.8xlarge |
250000 | 125000 |
g5.12xlarge |
312500 | 156250 |
g5.16xlarge |
250000 | 125000 |
g5.24xlarge |
312500 | 156250 |
g5.48xlarge |
625000 | 312500 |
p3dn.24xlarge |
700000 | 340000 |
p4d.24xlarge |
2000000 | 1600000 |
p4de.24xlarge |
2000000 | 1600000 |
p5.48xlarge |
4400000 | 2200000 |
trn1.2xlarge |
107500 | 45000 |
trn1.32xlarge |
1720000 | 720000 |
trn1n.32xlarge |
1720000 | 720000 |
Ao preencher os volumes de armazenamento de instâncias baseados em SSD, o número de IOPS de gravação que é possível atingir diminui. Isso se deve ao trabalho extra que o controlador SSD deve fazer para encontrar espaço disponível, regravar os dados existentes e apagar o espaço não utilizado para que possa ser regravado. Esse processo de coleta de lixo resulta em uma amplificação da gravação interna no SSD, expressa como uma proporção entre as operações de gravação SSD e as operações de gravação do usuário. Essa redução na performance será ainda maior se as operações de gravação não ocorrerem em múltiplos de 4.096 bytes ou não estiverem alinhadas com um limite de 4.096 bytes. Se você gravar uma quantidade menor de bytes ou os bytes que não estejam alinhados, o controlador SSD deverá ler os dados adjacentes e armazenar o resultado em um novo local. Esse padrão resulta em uma amplificação da gravação muito maior, maior latência e uma performance de E/S drasticamente reduzida.
Os controladores SSD podem usar várias estratégias para reduzir o impacto da amplificação da gravação. Uma dessas estratégias é reservar espaço no armazenamento de instâncias SSD para que o controlador possa gerenciar, com mais eficiência, o espaço disponível para operações de gravação. Isso é denominado superprovisionamento. Os volumes de armazenamento de instâncias baseados em SSD fornecidos a uma instância não têm espaço reservado para o superprovisionamento. Para reduzir a amplificação da gravação, recomendamos que você deixe 10% do volume não particionado de modo que o controlador SSD possa usá-lo para superprovisionamento. Isso diminui o armazenamento que é possível usar, mas aumenta a performance mesmo se o disco estiver próximo da capacidade total.
Para volumes de armazenamento de instâncias que oferecem suporte a TRIM, é possível usar o comando TRIM para notificar o controlador de SSD sempre quando você não precisa mais dos dados que gravou. Isso fornece ao controlador mais espaço livre, o que pode reduzir a amplificação da gravação e aumentar a performance. Para ter mais informações, consulte Suporte a TRIM do volume de armazenamento de instâncias.
Notas de release
-
Para obter a melhor performance com instâncias P5, recomendamos fazer o seguinte:
-
Usar uma AMI com Linux com versão do kernel 5.10 ou posterior.
-
Configurar o sistema para não usar C-states mais profundos. Para obter mais informações, consulte Alta performance e baixa latência com a limitação dos C-states mais profundos.
-
-
Execute a instância usando uma AMI de HVM.
-
As instâncias criadas no Sistema Nitro têm os seguintes requisitos:
Os drivers de NVMe devem estar instalados
Os drivers do Elastic Network Adapter (ENA) devem estar instalados
As AMIs do Linux a seguir atendem a esses requisitos:
AL2023
Amazon Linux 2
Amazon Linux AMI 2018.03 e posteriores
-
Ubuntu 14.04 ou posterior com kernel
linux-aws
nota
Os tipos de instância baseados no AWS Graviton requerem o Ubuntu 18.04 ou posterior com kernel
linux-aws
Red Hat Enterprise Linux 7.4 ou posterior
SUSE Linux Enterprise Server 12 SP2 ou posterior
CentOS 7.4.1708 ou posterior
FreeBSD 11.1 ou posterior
Debian GNU/Linux 9 ou posterior
-
As instâncias baseadas em GPU não podem acessar a GPU, a menos que os drivers NVIDIA sejam instalados. Para ter mais informações, consulte Instalar drivers NVIDIA nas instâncias do Linux.
-
Executar uma instância bare metal inicializa o servidor subjacente, o que inclui a verificação de todos os componentes de hardware e firmware. Isso significa que pode levar 20 minutos a partir do momento em que a instância entra no estado de execução até que ela se torne disponível na rede.
-
Para anexar ou separar volumes do EBS ou interfaces de rede secundárias de uma instância bare metal, é necessário ter suporte PCIe hotplug nativo. O Amazon Linux 2 e as versões mais recentes da AMI do Amazon Linux são compatíveis com PCIe hotplug nativo, mas as versões anteriores não são. Você precisa ativar as seguintes opções de configuração do kernel do Linux:
CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
-
As instâncias bare metal usam um dispositivo serial baseado em PCI em vez de um dispositivo serial baseado em porta de E/S. O kernel Linux upstream e as AMIs mais recentes do Amazon Linux suportam este dispositivo. As instâncias bare metal também fornecem uma tabela ACPI SPCR para permitir que o sistema use automaticamente o dispositivo serial baseado em PCI. As AMIs do Windows mais recentes usam automaticamente o dispositivo serial baseado em PCI.
-
Há um limite de 100 AFIs por região.
-
Existe um limite sobre o número total de instâncias que é possível executar em uma região e limites adicionais sobre alguns tipos de instância. Para obter mais informações, consulte Quantas instâncias posso executar no Amazon EC2?
nas perguntas frequentes do Amazon EC2.