Instâncias de computação acelerada do Linux - Amazon Elastic Compute Cloud

Instâncias de computação acelerada do Linux

nota

Para obter especificações detalhadas sobre os tipos de instância, consulte o Guia de tipos de instâncias do Amazon EC2. Para obter informações de preço, consulte Tipos de instância do Amazon EC2.

As instâncias de computação acelerada usam aceleradores de hardware, ou coprocessadores, para executar, com mais eficiência, algumas funções, como cálculos de número de ponto flutuante, processamento gráfico ou correspondência de padrões de dados, do que o possível em software executado em CPUs. Essas instâncias permitem mais paralelismo para obter uma throughput maior em workloads com alta quantidade de computação.

Se você precisar de alta capacidade de processamento, se beneficiará do uso das instâncias de computação acelerada que concedem acesso aos aceleradores de computação com base em hardware como Graphics Processing Units (GPUs), Field Programmable Gate Arrays (FPGAs) ou AWS Inferentia.

Instâncias de GPU

As instâncias baseadas em GPU concedem acesso a GPUs NVIDIA com milhares de núcleos de computação. É possível essas instâncias para acelerar aplicações científicas, de engenharia e renderização utilizando as estruturas de computação paralela CUDA ou Open Computing Language (OpenCL). Também é possível usá-las para aplicações gráficas, incluindo transmissão de jogos, transmissão de aplicações 3-D e outras workloads gráficas.

Instâncias G5

As instâncias G5 usam GPUs NVIDIA A10G e oferecem alta performance para aplicações com uso intensivo de elementos gráficos, como estações de trabalho remotas, processamento de vídeo e jogos em nuvem, e modelos de aprendizado profundo para aplicações como processamento de linguagem natural, visão computacional e mecanismos de recomendação. Essas instâncias oferecem até 8 GPUs NVIDIA A10G, processadores AMD EPYC de segunda geração, até 100 Gbps de largura de banda da rede e até 7,6 TB de armazenamento SSD NVMe local.

Para obter mais informações, consulte Instâncias G5 do Amazon EC2.

Instâncias G5g

As instâncias G5g usam GPUs NVIDIA T4G e oferecem alta performance para aplicações com uso intenso de elementos gráficos, como transmissão e processamento de jogos que fazem uso das APIs padrão do setor, como OpenGL e Vulkan. Essas instâncias também são adequadas para executar modelos de aprendizado profundo para aplicações como processamento de linguagem natural e visão computacional. Essas instâncias têm até 2 GPUs NVIDIA T4G Tensor Core, processadores AWS Graviton2 e até 25 Gbps de largura de banda de rede.

Para obter mais informações, consulte Instâncias G5g do Amazon EC2.

Instâncias G4ad e G4dn

As instâncias G4ad usam GPUs AMD Radeon Pro V520 e processadores AMD EPYC de 2ª geração e são adequadas para aplicações gráficas como estações de trabalho gráficas remotas, transmissão de jogos e renderização que aproveitam APIs padrão do setor, como OpenGL, DirectX e Vulkan. Elas fornecem até 4 GPUs AMD Radeon Pro V520, 64 vCPUs, rede de 25 Gbps e armazenamento SSD local baseado em NVME de 2,4 TB.

As instâncias G4dn usam GPUs NVIDIA Tesla e oferecem uma plataforma de alta performance e bom custo/benefício para computação com GPU de uso geral usando as estruturas CUDA ou de machine learning junto com aplicações gráficas que usam DirectX ou OpenGL. Essas instâncias proporcionam uso de rede de alta largura de banda, recursos avançados de ponto flutuante de precisão simples e meia precisão, além de precisões INT8 e INT4. Cada GPU tem 16 GiB de memória GDDR6, tornando as instâncias G4dn adequadas para inferência de machine learning, transcodificação de vídeo e aplicações gráficas, como estações de trabalho gráficas remotas e transmissão de jogos na nuvem.

Para obter mais informações, consulte Instâncias G4 do Amazon EC2.

As instâncias G4dn são compatíveis com NVIDIA GRID Virtual Workstation. Para obter mais informações, consulte as ofertas da NVIDIA no Marketplace.

Instâncias G3

Essas instâncias usam GPUs NVIDIA Tesla M60 e fornecem uma plataforma de alta performance, econômica, para aplicações gráficas que utilizam DirectX ou OpenGL. As instâncias G3 também fornecem recursos do NVIDIA GRID Virtual Workstation, como suporte para quatro monitores com resoluções de até 4096 x 2160, e NVIDIA GRID Virtual Applications. As instâncias G3 são adequadas para visualizações 3D, estações de trabalho remotas de uso intenso da placa de vídeo, renderização 3D, codificação de vídeo, realidade virtual e outras workloads gráfico no lado do servidor, que exigem potência de processamento altamente paralela.

Para obter mais informações, consulte Instâncias G3 do Amazon EC2.

As instâncias G3 oferecem suporte a NVIDIA GRID Virtual Workstation e NVIDIA GRID Virtual Applications. Para ativar qualquer um desses recursos, consulte Ativar NVIDIA GRID Virtual Applications.

Instâncias G2

Essas instâncias usam GPUs NVIDIA GRID K520 e fornecem uma plataforma de alta performance, econômica, para aplicações gráficas que utilizam DirectX ou OpenGL. Os GPUs NVIDIA GRID também oferecem suporte às operações de API de codificação e captura rápida NVIDIA. As aplicações de exemplo incluem serviços de criação de vídeo, visualizações 3D, aplicações de uso intenso de gráfico de transmissão e outras workloads no lado do servidor.

Instâncias P5

As instâncias P5 fornecem 8 GPUs NVIDIA H100 com 640 GB de memória de GPU com alta largura de banda. Elas oferecem processadores AMD EPYC de 3ª geração e fornecem 2 TB de memória de sistema, 30 TB de armazenamento de instância NVMe local, largura de banda de rede agregada de 3.200 Gbps e suporte a RDMA GPUDirect. As instâncias P5 também oferecem suporte à tecnologia Amazon EC2 UltraCluster, que fornece menor latência e melhor performance de rede usando o EFA. Para workloads de machine learning e HPC, as instâncias P5 oferecem performance até 6 vezes maior do que as instâncias de GPU da geração anterior.

As instâncias P5 podem acelerar uma ampla variedade de workloads habilitadas por GPU e são adequadas para aplicações distribuídas de machine learning e computação de alto desempenho em grande escala.

Para obter mais informações, consulte Instâncias P5 do Amazon EC2.

Instâncias P4d

Essas instâncias usam GPUs NVIDIA A100 e fornecem uma plataforma de alta performance para machine learning e workloads HPC. As instâncias P4d oferecem 400 Gbps de throughput de largura de banda de rede agregada e suporte, Elastic Fabric Adapter (EFA). Elas são as primeiras instâncias do EC2 a fornecer várias placas de rede.

Para obter mais informações, consulte Instâncias P4d do Amazon EC2.

As instâncias P4d são compatíveis com a interconexão NVIDIA NVSwitch GPU e NVIDIA GPUDirect RDMA.

As instâncias P4de oferecem GPUs NVIDIA 80GB-A100s

Instâncias P3

Essas instâncias usam GPUs NVIDIA Tesla V100 e são projetadas para computação de GPU de uso geral que usa os modelos de programação CUDA ou OpenCL ou através um framework de Machine Learning. As instâncias P3 fornecem redes de alta largura de banda, recursos avançados de ponto flutuante de meia precisão, precisão única e dupla e até 32 GiB de memória por GPU, o que as torna ideais para deep learning, dinâmica computacional fluída, finanças computacionais, análise sísmica, modelagem molecular, genômica, renderização e outras workloads de computação de GPU no lado do servidor. As GPUs Tesla V100 não dão suporte ao modo de gráficos.

Para obter mais informações, consulte Instâncias P3 do Amazon EC2.

As instâncias P3 oferecem suporte a transferências par a par NVIDIA NVLink. Para obter mais informações, consulte NVIDIA NVLink.

Instâncias P2

As instâncias P2 usam GPUs NVIDIA Tesla K80 e são projetadas para computação de GPU de uso geral que usa os modelos de programação CUDA ou OpenCL. As instâncias P2 fornecem redes de alta largura de banda, recursos avançados de ponto flutuante de precisão única e dupla e 12 GiB de memória por GPU, o que as torna ideais para deep learning, bancos de dados gráficos, bancos de dados de alta performance, fluidodinâmica computacional, finanças computacionais, análise sísmica, modelagem molecular, genômica, renderização e outras workloads de computação de GPU no lado do servidor.

As instâncias P2 oferecem suporte a transferências par a par NVIDIA GPUDirect. Para obter mais informações, consulte NVIDIA GPUDirect.

Instâncias com AWS Trainium

As instâncias Trn1 e Trn1n do Amazon EC2, baseadas no AWS Trainium, têm propósito específico para treinamento de aprendizado profundo com bom custo-benefício e alta performance. Utilize instâncias Trn1 e Trn1n para treinar modelos de processamento de linguagem natural, visão computacional e recomendação usados em um amplo conjunto de aplicações, como reconhecimento de fala, recomendação, detecção de fraudes e classificação de imagens e vídeos. Use seus fluxos de trabalho existentes nos frameworks de ML mais utilizados, como PyTorch e TensorFlow. AWS O SDK do Neuron se integra perfeitamente a esses frameworks para que você possa começar com poucas linhas de alterações de código.

Para obter mais informações, consulte Instâncias Trn1 do Amazon EC2.

Instâncias com o AWS Inferentia

Estas instâncias foram projetadas para acelerar o machine learning usando o AWS Inferentia, um chip de IA/ML personalizado da Amazon que fornece inferência de machine learning de alta performance e baixa latência. Essas instâncias são otimizadas para implantar modelos de aprendizagem profunda (DL) para aplicações, como processamento de linguagem natural, detecção e classificação de objetos, personalização e filtragem de conteúdo e reconhecimento de fala.

É possível começar de diversas maneiras:

  • Use o SageMaker, um serviço totalmente gerenciado que é a maneira mais fácil de começar a usar modelos de machine learning. Para obter informações, consulte What Is Amazon SageMaker? (O que é o Amazon SageMaker?) no Guia do desenvolvedor do Amazon SageMaker.

  • Inicie uma instância Inf1 ou Inf2 usando a AMI de aprendizado profundo. Para obter mais informações, consulte AWS Inferentia com DLAMI no Guia do desenvolvedor do AWS Deep Learning AMI.

  • Execute uma instância Inf1 ou Inf2 usando sua própria AMI e instale o AWS Neuron SDK, que permite compilar, executar e criar perfis de modelos de aprendizado profundo para o AWS Inferentia.

  • Inicie uma instância de contêiner usando uma instância Inf1 ou Inf2 e uma AMI otimizada para o Amazon ECS. Para obter mais informações, consulte AMIs do Amazon Linux 2 (Inferentia) no Amazon Elastic Container Service Developer Guide.

  • Crie um cluster do Amazon EKS com nós executando instâncias Inf1. Para obter mais informações, consulte Inferentia support (Suporte para Inferentia) no Amazon EKS User Guide (Manual do usuário do Amazon EKS).

Para obter mais informações, consulte Machine Learning na AWS.

Instâncias Inf1

As instâncias Inf1 usam chips de inferência de machine learning do AWS Inferentia. O Inferentia foi desenvolvido para permitir uma performance de inferência altamente econômico e de baixa latência em qualquer escala.

Para obter mais informações, consulte Instâncias Inf1 do Amazon EC2.

Instâncias Inf2

As instâncias Inf2 usam chips de inferência de machine learning do AWS Inferentia2. Essas instâncias de segunda geração oferecem até 25% de melhoria no custo por inferência em relação às instâncias Inf1 e até 70% melhor no custo por inferência em relação às instâncias do Amazon EC2 comparáveis. Essas instâncias são ideais para uma ampla variedade de workloads que usam modelos de aprendizado profundo.

Para obter mais informações, consulte Instâncias Inf2 do Amazon EC2.

Instâncias com aceleradores Habana

Essas instâncias foram projetadas para acelerar as workloads de treinamento do modelo de aprendizado profundo (DL). Usam aceleradores da Habana Labs, uma empresa da Intel. Essas instâncias são otimizadas para modelos de DL para aplicações como reconhecimento de imagem, detecção e classificação de objetos e sistemas de recomendação.

Para obter mais informações, consulte Machine Learning na AWS.

Instâncias DL1

As instâncias DL1 usam aceleradores Habana Gaudi. Oferecem até 400 Gbps de largura de banda agregada de rede, juntamente com 32 GB de memória de alta largura de banda (HBM) por acelerador. As instâncias DL1 foram projetadas para fornecer alta performance e economia para o treinamento de modelos de aprendizado profundo.

É possível começar de diversas maneiras:

  • Inicie uma instância DL1 usando a Habana Deep Learning AMI.

  • Inicie uma instância DL1 usando sua própria AMI e instale os drivers Habana e o SDK do Habana SynapseAI.

  • Execute uma instância de contêiner usando uma instância DL1 e uma AMI otimizada para Amazon ECS.

  • Crie um cluster do Amazon EKS com nós executando instâncias DL1.

Para obter mais informações, consulte as instâncias DL1 do Amazon EC2.

Instâncias com aceleradores Qualcomm

DL2q

As instâncias DL2q usam aceleradores de inferência Qualcomm AI100, que têm núcleos Qualcomm Edge AI de 7ª geração. Elas podem ser usadas de modo econômico para implantar workloads de aprendizado profundo (DL) na nuvem ou para validar a performance e a precisão das workloads de DL que serão implantadas nos dispositivos de borda da Qualcomm.

As instâncias DL2q são compatíveis com até 1,4 petaFLOPS de performance de machine learning com 8 aceleradores Qualcomm AI100, 96 vCPUs em duas CPUs Intel Cascade Lake, 768 GB de memória do sistema e 100 Gbps de largura de banda da rede. Cada acelerador Qualcomm AI100 fornece até 175 TFLOPs de performance de FP16 e 16 GB de memória de acelerador.

As instâncias DL2q são ideais para validar workloads IA de borda antes de implantá-las em smartphones, automóveis, robótica e fones de ouvido de realidade estendida. Elas também são compatíveis com inferência na nuvem para executar aplicações populares de DL, como geração de conteúdo, análise de imagens, resumo de texto e assistentes virtuais.

Para começar a usar as instâncias DL2q, recomendamos que você use a AMI de aprendizado profundo (DLAMI) da AWS, que vem de fábrica com o kit de desenvolvimento de software (SDK) para as aplicações e a plataforma Qualcomm, e estruturas populares de machine learning, como a PyTorch e a TensorFlow.

Para obter mais informações, consulte Instâncias DL2q do Amazon EC2.

Instâncias de transcodificação de vídeo

Essas instâncias foram projetadas para acelerar workloads de transcodificação de vídeo, como transmissão ao vivo, videoconferência e transcodificação just-in-time.

Instâncias do VT1

As instâncias VT1 apresentam aceleradores de mídia Xilinx Alveo U30 e são projetadas para workloads de transcodificação de vídeo ao vivo. Essas instâncias oferecem até 8 placas de aceleração Xilinx Alveo U30, fornecem até 192 GB de memória do sistema e até 25 Gbps de largura de banda de rede. As instâncias VT1 apresentam codecs H.264/AVC e H.265/HEVC e oferecem suporte a resoluções de até 4K UHD para transcodificação de múltiplas transmissões de vídeo.

É possível começar de diversas maneiras:

  • Inicie uma instância VT1 usando as AMIs Xilinx U30 no AWS Marketplace.

  • Inicie uma instância VT1 usando sua própria AMI e instale os drivers do Xilinx U30 e o SDK de vídeo do Xilinx.

  • Inicie uma instância de contêiner usando uma instância VT1 e uma AMI otimizada para o Amazon ECS.

  • Crie um cluster do Amazon EKS com nós executando instâncias VT1.

Para obter mais informações, consulte Instâncias VT1 do Amazon EC2.

Instâncias FPGA

As instâncias baseadas em FPGA concedem acesso a FPGAs grandes, com milhões de células lógicas de sistema paralelo. É possível usar instâncias de computação acelerada baseadas em FPGA para acelerar workloads, como análise financeira, genômica, processamento de vídeo em tempo real, análise de big data e workloads de segurança utilizando acelerações de hardware personalizadas. É possível desenvolver essas acelerações usando linguagens de descrição de hardware, como Verilog ou VHDL, ou usando linguagens de nível superior, como estruturas de computação paralela OpenCL. É possível desenvolver seu próprio código de aceleração de hardware ou adquirir acelerações de hardware por meio do AWS Marketplace.

A AMI do desenvolvedor de FPGA fornece as ferramentas para desenvolvimento, teste e criação de AFIs. É possível usar a AMI de desenvolvedor de FPGA em qualquer instância do EC2 com, pelo menos, 32 GB de memória do sistema (por exemplo, instâncias C5, M4 e R4).

Para obter mais informações, consulte a documentação do Kit de desenvolvimento de hardware do AWS FPGA.

Instâncias F1

As instâncias F1 usam FPGAs Xilinx UltraScale+ VU9P e foram projetadas para acelerar algoritmos que usam muita computação, como fluxo de dados ou operações altamente paralelas, não indicadas para CPUs de uso geral. Cada FPGA em uma instância F1 contém aproximadamente 2,5 milhões de elementos de lógica e cerca de 6.800 mecanismos DSP (Processamento de sinal digital), junto com 64 GiB de memória protegida por DDR ECCE local, conectados à instância por uma conexão dedicada PCIe Gen3 x16. As instâncias F1 fornecem volumes SSD NVMe locais.

Os desenvolvedores podem usar o kit do desenvolvedor de hardware da AWS e a AMI do desenvolvedor de FPGA para criar acelerações de hardware personalizadas para uso em instâncias F1. A AMI do desenvolvedor de FPGA inclui ferramentas de desenvolvimento para o desenvolvimento de FPGA de ciclo completo na nuvem. Usando essas ferramentas, os desenvolvedores podem criar e compartilhar imagens de FPGA da Amazon que podem ser carregadas na FPGA de uma instância F1.

Para obter mais informações, consulte Instâncias F1 do Amazon EC2.

Especificações de hardware

Este é um resumo das especificações de hardware para instâncias de computação acelerada. Uma unidade de processamento central virtual (vCPU) representa uma parte da CPU física atribuída a uma máquina virtual (VM). Para instâncias x86, existem duas vCPUs por núcleo. Para instâncias Graviton, há uma vCPU por núcleo.

Tipo de instância vCPUs padrão Memória (GiB) Aceleradores
dl1.24xlarge 96 768,00 8 GPUs
dl2q.24xlarge 96 768,00 8 aceleradores de inferência
f1.2xlarge 8 122,00 1 FPGA
f1.4xlarge 16 244,00 2 FPGAs
f1.16xlarge 64 976,00 8 FPGAs
g2.2xlarge 8 15,00 1 GPU
g2.8xlarge 32 60,00 4 GPUs
g3.4xlarge 16 122,00 1 GPU
g3.8xlarge 32 244,00 2 GPUs
g3.16xlarge 64 488,00 4 GPUs
g4ad.xlarge 4 16,00 1 GPU
g4ad.2xlarge 8 32,00 1 GPU
g4ad.4xlarge 16 64,00 1 GPU
g4ad.8xlarge 32 128,00 2 GPUs
g4ad.16xlarge 64 256,00 4 GPUs
g4dn.xlarge 4 16,00 1 GPU
g4dn.2xlarge 8 32,00 1 GPU
g4dn.4xlarge 16 64,00 1 GPU
g4dn.8xlarge 32 128,00 1 GPU
g4dn.12xlarge 48 192,00 4 GPUs
g4dn.16xlarge 64 256,00 1 GPU
g4dn.metal 96 384,00 8 GPUs
g5.xlarge 4 16,00 1 GPU
g5.2xlarge 8 32,00 1 GPU
g5.4xlarge 16 64,00 1 GPU
g5.8xlarge 32 128,00 1 GPU
g5.12xlarge 48 192,00 4 GPUs
g5.16xlarge 64 256,00 1 GPU
g5.24xlarge 96 384,00 4 GPUs
g5.48xlarge 192 768,00 8 GPUs
g5g.xlarge 4 8,00 1 GPU
g5g.2xlarge 8 16,00 1 GPU
g5g.4xlarge 16 32,00 1 GPU
g5g.8xlarge 32 64,00 1 GPU
g5g.16xlarge 64 128,00 2 GPUs
g5g.metal 64 128,00 2 GPUs
inf1.xlarge 4 8,00 1 acelerador de inferência
inf1.2xlarge 8 16,00 1 acelerador de inferência
inf1.6xlarge 24 48,00 4 aceleradores de inferência
inf1.24xlarge 96 192,00 16 aceleradores de inferência
inf2.xlarge 4 16,00 1 acelerador de inferência
inf2.8xlarge 32 128,00 1 acelerador de inferência
inf2.24xlarge 96 384,00 6 aceleradores de inferência
inf2.48xlarge 192 768,00 12 aceleradores de inferência
p2.xlarge 4 61,00 1 GPU
p2.8xlarge 32 488,00 8 GPUs
p2.16xlarge 64 732,00 16 GPUs
p3.2xlarge 8 61,00 1 GPU
p3.8xlarge 32 244,00 4 GPUs
p3.16xlarge 64 488,00 8 GPUs
p3dn.24xlarge 96 768,00 8 GPUs
p4d.24xlarge 96 1152,00 8 GPUs
p4de.24xlarge 96 1152,00 8 GPUs
p5.48xlarge 192 2048,00 8 GPUs
trn1.2xlarge 8 32,00
trn1.32xlarge 128 512,00
trn1n.32xlarge 128 512,00
vt1.3xlarge 12 24,00
vt1.6xlarge 24 48,00
vt1.24xlarge 96 192,00
nota

As instâncias trn1n.32xlarge apresentam 16 aceleradores Trainium.

As instâncias Trn1 apresentam o seguinte número de aceleradores Trainium.

  • trn1.2xlarge: 1

  • trn1.32xlarge: 16

As instâncias Trn1 apresentam o seguinte número de aceleradores U30.

  • vt1.3xlarge: 1

  • vt1.6xlarge: 2

  • vt1.24xlarge: 16

As instâncias com computação acelerada usam os seguintes processadores.

Processadores AWS Graviton
  • AWS Graviton2: G5g

Processadores AMD
  • Processadores AMD EPYC de 2ª geração (AMD EPYC 7R32): G4ad, G5

  • Processadores AMD EYPC de terceira geração (AMD EYPC 7R13): P5

Processadores Intel
  • Processadores Intel Xeon Scalable (Broadwell E5-2686 v4): F1, G3, P2, P3

  • Processadores escaláveis Intel Xeon (Skylake 8175): P3dn

  • Processadores Intel Xeon Scalable de segunda geração (Cascade Lake P-8275CL): DL1, P4d, P4de

  • Processadores Intel Xeon Scalable de segunda geração (Cascade Lake P-8259L): DL2q, G4dn, Inf1, VT1

  • Processadores Intel Xeon Scalable de terceira geração (Cascade Lake 8375C): Trn1

Para obter especificações detalhadas sobre os tipos de instância, consulte o Guia de tipos de instâncias do Amazon EC2. Para obter informações de preço, consulte Tipos de instância do Amazon EC2.

Performance da instância

Há várias otimizações de configuração de GPU que é possível executar para obter melhor performance em suas instâncias. Para ter mais informações, consulte Para otimizar as configurações de GPU.

As instâncias otimizadas para EBS permitem que você tenha uma performance consistentemente alta para seus volumes do EBS ao eliminar a contenção entre E/S do Amazon EBS e outros tráfegos de rede da sua instância. As instâncias de computação acelerada são otimizadas para EBS por padrão, sem nenhum custo adicional. Para ter mais informações, consulte Instâncias otimizadas para Amazon EBS.

Alguns tipos de instância de computação acelerada fornecem a habilidade de controlar C-states do processador e P-states no Linux. Os C-states controlam os níveis de suspensão em que um núcleo pode entrar quando estiver inativo, enquanto os P-states controlam a performance desejada (em frequência da CPU) de um núcleo. Para obter mais informações, consulte Controle do estado do processo para a instância do EC2.

Performance das redes

É possível habilitar a rede avançada em tipos de instâncias compatíveis para fornecer latências mais baixas, jitter de rede mais baixo e melhor performance de pacotes por segundo (PPS). A maioria das aplicações não precisa de um alto nível de performance de rede constantemente, mas pode se beneficiar com uma largura de banda maior ao enviar ou receber dados. Para ter mais informações, consulte Rede avançada no Linux.

Este é um resumo da performance de rede para instâncias de computação acelerada que oferecem suporte às redes aprimoradas.

nota

Tipos de instâncias indicadas por um têm uma largura de banda de linha de base e podem usar um mecanismo de crédito de E/S de rede para ultrapassar sua largura de banda de linha de base conforme o melhor esforço. Para obter mais informações, consulte a largura de banda da rede.

Tipo de instância Performance de rede Recursos de rede avançados
dl1.24xlarge 4x 100 gigabits ENA | EFA
dl2q.24xlarge 100 gigabits ENA | EFA
f1.2xlarge Até 10 gigabits ENA
f1.4xlarge Até 10 gigabits ENA
f1.16xlarge 25 gigabits ENA
g2.2xlarge Moderada Não suportado
g2.8xlarge Alta Não suportado
g3.4xlarge Até 10 gigabits ENA
g3.8xlarge 10 gigabits ENA
g3.16xlarge 25 gigabits ENA
g4ad.xlarge Até 10 gigabits ENA
g4ad.2xlarge Até 10 gigabits ENA
g4ad.4xlarge Até 10 gigabits ENA
g4ad.8xlarge 15 gigabits ENA
g4ad.16xlarge 25 gigabits ENA
g4dn.xlarge Até 25 gigabits ENA
g4dn.2xlarge Até 25 gigabits ENA
g4dn.4xlarge Até 25 gigabits ENA
g4dn.8xlarge 50 gigabits ENA | EFA
g4dn.12xlarge 50 gigabits ENA | EFA
g4dn.16xlarge 50 gigabits ENA | EFA
g4dn.metal 100 gigabits ENA | EFA
g5.xlarge Até 10 gigabits ENA
g5.2xlarge Até 10 gigabits ENA
g5.4xlarge Até 25 gigabits ENA
g5.8xlarge 25 gigabits ENA | EFA
g5.12xlarge 40 gigabits ENA | EFA
g5.16xlarge 25 gigabits ENA | EFA
g5.24xlarge 50 gigabits ENA | EFA
g5.48xlarge 100 gigabits ENA | EFA
g5g.xlarge Até 10 gigabits ENA
g5g.2xlarge Até 10 gigabits ENA
g5g.4xlarge Até 10 gigabits ENA
g5g.8xlarge 12 gigabits ENA
g5g.16xlarge 25 gigabits ENA
g5g.metal 25 gigabits ENA
inf1.xlarge Até 25 gigabits ENA
inf1.2xlarge Até 25 gigabits ENA
inf1.6xlarge 25 gigabits ENA
inf1.24xlarge 100 gigabits ENA | EFA
inf2.xlarge Até 15 gigabits ENA
inf2.8xlarge Até 25 gigabits ENA
inf2.24xlarge 50 gigabits ENA
inf2.48xlarge 100 gigabits ENA
p2.xlarge Alta ENA
p2.8xlarge 10 gigabits ENA
p2.16xlarge 25 gigabits ENA
p3.2xlarge Até 10 gigabits ENA
p3.8xlarge 10 gigabits ENA
p3.16xlarge 25 gigabits ENA
p3dn.24xlarge 100 gigabits ENA | EFA
p4d.24xlarge 4x 100 gigabits ENA | EFA
p4de.24xlarge 4x 100 gigabits ENA | EFA
p5.48xlarge 3.200 gigabits ENA | EFA
trn1.2xlarge Até 12,5 gigabits ENA
trn1.32xlarge 8x 100 gigabits ENA | EFA
trn1n.32xlarge 16x 100 gigabits ENA | EFA
vt1.3xlarge 3,12 gigabits ENA
vt1.6xlarge 6,25 gigabits ENA
vt1.24xlarge 25 gigabits ENA | EFA

A tabela a seguir mostra a largura de banda de linha de base e explodir para tipos de instância que usam o mecanismo de crédito de E/S de rede para ultrapassar sua largura de banda de linha de base conforme o melhor esforço.

Tipo de instância Largura de banda da linha de base (Gbps) Expansão da largura de banda (Gbps)
f1.2xlarge 2,5 10
f1.4xlarge 5 10
g3.4xlarge 5 10
g4ad.xlarge 2.0 10.0
g4ad.2xlarge 4,167 10.0
g4ad.4xlarge 8,333 10.0
g4dn.xlarge 5,0 25.0
g4dn.2xlarge 10.0 25.0
g4dn.4xlarge 20.0 25.0
g5.xlarge 2,5 10.0
g5.2xlarge 5,0 10.0
g5.4xlarge 10.0 25.0
g5g.xlarge 1,25 10.0
g5g.2xlarge 2,5 10.0
g5g.4xlarge 5,0 10.0
inf1.xlarge 5,0 25.0
inf1.2xlarge 5,0 25.0
inf2.xlarge 2,083 15,0
inf2.8xlarge 16,667 25.0
trn1.2xlarge 3.125 12,5

Performance de E/S do Amazon EBS

As instâncias otimizadas para o Amazon EBS usam uma pilha de configuração otimizada e fornecem capacidade adicional dedicada para E/S do Amazon EBS. Essa otimização proporciona a melhor performance para seus volumes do Amazon EBS ao minimizar a contenção entre a E/S do Amazon EBS e outro tráfego de sua instância.

Para ter mais informações, consulte Instâncias otimizadas para Amazon EBS.

Performance de E/S de volume de armazenamento de instância baseada em SSD

Se você usar a AMI do Linux com kernel versão 4.4 ou superior e utilizar todos os volumes de armazenamento de instâncias baseados em SSD disponíveis para sua instância, será possível obter a performance de IOPS (tamanho de bloco de 4.096 bytes) na tabela a seguir (na saturação de profundidade de fila). Do contrário, você terá uma performance de IOPS inferior.

Tamanho de instância 100% de IOPS de leitura aleatória IOPS de gravação
dl1.24xlarge 1000000 800000
g4ad.xlarge 10417 8333
g4ad.2xlarge 20833 16667
g4ad.4xlarge 41667 33333
g4ad.8xlarge 83333 66667
g4ad.16xlarge 166666 133332
g4dn.xlarge 42500 32500
g4dn.2xlarge 42500 32500
g4dn.4xlarge 85000 65000
g4dn.8xlarge 250000 200000
g4dn.12xlarge 250000 200000
g4dn.16xlarge 250000 200000
g4dn.metal 500000 400000
g5.xlarge 40625 20313
g5.2xlarge 40625 20313
g5.4xlarge 125000 62500
g5.8xlarge 250000 125000
g5.12xlarge 312500 156250
g5.16xlarge 250000 125000
g5.24xlarge 312500 156250
g5.48xlarge 625000 312500
p3dn.24xlarge 700000 340000
p4d.24xlarge 2000000 1600000
p4de.24xlarge 2000000 1600000
p5.48xlarge 4400000 2200000
trn1.2xlarge 107500 45000
trn1.32xlarge 1720000 720000
trn1n.32xlarge 1720000 720000

Ao preencher os volumes de armazenamento de instâncias baseados em SSD, o número de IOPS de gravação que é possível atingir diminui. Isso se deve ao trabalho extra que o controlador SSD deve fazer para encontrar espaço disponível, regravar os dados existentes e apagar o espaço não utilizado para que possa ser regravado. Esse processo de coleta de lixo resulta em uma amplificação da gravação interna no SSD, expressa como uma proporção entre as operações de gravação SSD e as operações de gravação do usuário. Essa redução na performance será ainda maior se as operações de gravação não ocorrerem em múltiplos de 4.096 bytes ou não estiverem alinhadas com um limite de 4.096 bytes. Se você gravar uma quantidade menor de bytes ou os bytes que não estejam alinhados, o controlador SSD deverá ler os dados adjacentes e armazenar o resultado em um novo local. Esse padrão resulta em uma amplificação da gravação muito maior, maior latência e uma performance de E/S drasticamente reduzida.

Os controladores SSD podem usar várias estratégias para reduzir o impacto da amplificação da gravação. Uma dessas estratégias é reservar espaço no armazenamento de instâncias SSD para que o controlador possa gerenciar, com mais eficiência, o espaço disponível para operações de gravação. Isso é denominado superprovisionamento. Os volumes de armazenamento de instâncias baseados em SSD fornecidos a uma instância não têm espaço reservado para o superprovisionamento. Para reduzir a amplificação da gravação, recomendamos que você deixe 10% do volume não particionado de modo que o controlador SSD possa usá-lo para superprovisionamento. Isso diminui o armazenamento que é possível usar, mas aumenta a performance mesmo se o disco estiver próximo da capacidade total.

Para volumes de armazenamento de instâncias que oferecem suporte a TRIM, é possível usar o comando TRIM para notificar o controlador de SSD sempre quando você não precisa mais dos dados que gravou. Isso fornece ao controlador mais espaço livre, o que pode reduzir a amplificação da gravação e aumentar a performance. Para ter mais informações, consulte Suporte a TRIM do volume de armazenamento de instâncias.

Notas de release

  • Para obter a melhor performance com instâncias P5, recomendamos fazer o seguinte:

  • Execute a instância usando uma AMI de HVM.

  • As instâncias criadas no Sistema Nitro têm os seguintes requisitos:

    As AMIs do Linux a seguir atendem a esses requisitos:

    • AL2023

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03 e posteriores

    • Ubuntu 14.04 ou posterior com kernel linux-aws

      nota

      Os tipos de instância baseados no AWS Graviton requerem o Ubuntu 18.04 ou posterior com kernel linux-aws

    • Red Hat Enterprise Linux 7.4 ou posterior

    • SUSE Linux Enterprise Server 12 SP2 ou posterior

    • CentOS 7.4.1708 ou posterior

    • FreeBSD 11.1 ou posterior

    • Debian GNU/Linux 9 ou posterior

  • As instâncias baseadas em GPU não podem acessar a GPU, a menos que os drivers NVIDIA sejam instalados. Para ter mais informações, consulte Instalar drivers NVIDIA nas instâncias do Linux.

  • Executar uma instância bare metal inicializa o servidor subjacente, o que inclui a verificação de todos os componentes de hardware e firmware. Isso significa que pode levar 20 minutos a partir do momento em que a instância entra no estado de execução até que ela se torne disponível na rede.

  • Para anexar ou separar volumes do EBS ou interfaces de rede secundárias de uma instância bare metal, é necessário ter suporte PCIe hotplug nativo. O Amazon Linux 2 e as versões mais recentes da AMI do Amazon Linux são compatíveis com PCIe hotplug nativo, mas as versões anteriores não são. Você precisa ativar as seguintes opções de configuração do kernel do Linux:

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • As instâncias bare metal usam um dispositivo serial baseado em PCI em vez de um dispositivo serial baseado em porta de E/S. O kernel Linux upstream e as AMIs mais recentes do Amazon Linux suportam este dispositivo. As instâncias bare metal também fornecem uma tabela ACPI SPCR para permitir que o sistema use automaticamente o dispositivo serial baseado em PCI. As AMIs do Windows mais recentes usam automaticamente o dispositivo serial baseado em PCI.

  • Há um limite de 100 AFIs por região.

  • Existe um limite sobre o número total de instâncias que é possível executar em uma região e limites adicionais sobre alguns tipos de instância. Para obter mais informações, consulte Quantas instâncias posso executar no Amazon EC2? nas perguntas frequentes do Amazon EC2.