Instancias de computación acelerada de Linux - Amazon Elastic Compute Cloud

Instancias de computación acelerada de Linux

Las familias de instancias de computación acelerada utilizan aceleradores de hardware, o coprocesadores, para realizar algunas funciones, como cálculos numéricos de coma flotante, procesamiento de gráficos o coincidencia de patrones de datos de un modo más eficiente que con software ejecutándose en CPU. Estas instancias hacen posible un mayor paralelismo para conseguir un mayor rendimiento en las cargas de trabajo que hacen un uso intensivo de los recursos informáticos.

Si necesita una alta capacidad de procesamiento, se beneficiará del uso de instancias de computación acelerada, ya que ofrecen acceso a aceleradores de computación basados en hardware como unidades de procesamiento gráfico (GPU), matrices de puertas programables en campo (FPGA) o AWS Inferentia.

Instancias de GPU

Las instancias basadas en GPU ofrecen acceso a GPU de NVIDIA con miles de núcleos de computación. Puede utilizar estas instancias para acelerar aplicaciones científicas, de ingeniería y de renderizado aprovechando los marcos de trabajo de computación paralela CUDA u Open Computing Language (OpenCL). También las puede utilizar para aplicaciones de gráficos, incluido el streaming de juegos, el streaming de aplicaciones 3-D y otras cargas de trabajo de gráficos.

Instancias G5

Las instancias G5 utilizan GPU NVIDIA A10G y proporcionan un alto rendimiento para aplicaciones de uso intensivo de gráficos, tales como estaciones de trabajo remotas, renderizado de video y videojuegos en la nube, así como modelos de aprendizaje profundo para aplicaciones como procesamiento de lenguaje natural, visión artificial y motores de recomendación. Estas instancias incluyen hasta 8 GPU NVIDIA A10G, procesadores AMD EPY de segunda generación, hasta 100 Gbps de ancho de banda de la red y hasta 7,6 TB de almacenamiento SSD NVMe local.

Para obtener más información, consulte Instancias G5 de Amazon EC2.

Instancias G5g

Las instancias G5g utilizan GPU NVIDIA T4G y proporcionan un alto rendimiento para aplicaciones de uso intensivo de gráficos, como streaming de videojuegos y renderizado que aprovechan las API estándar del sector, como OpenGL y Vulkan. Estas instancias también son adecuadas para ejecutar modelos de aprendizaje profundo para aplicaciones como el procesamiento de lenguaje natural y la visión artificial. Estas instancias incluyen hasta 2 GPU Tensor Core NVIDIA T4G, procesadores AWS Graviton2 y hasta 25 Gbps de ancho de banda de red.

Para obtener más información, consulte Instancias G5g de Amazon EC2.

Instancias de G4ad y G4dn

Las instancias G4ad utilizan GPU AMD Radeon Pro V520 y procesadores AMD EPYC de segunda generación, y son adecuadas para aplicaciones gráficas como estaciones de trabajo gráficas remotas, streaming de juegos y renderizado que aprovechan las API estándar del sector, como OpenGL, DirectX y Vulkan. Proporcionan hasta 4 GPU AMD Radeon Pro V520, 64 vCPU, redes de 25 Gbps y 2,4 TB de almacenamiento SSD local basado en NVME.

Las instancias de G4dn utilizan las GPU NVIDIA Tesla y proporcionan una plataforma rentable y de alto rendimiento para la informática de GPU de carácter general mediante el uso de CUDA o marcos de machine learning junto con aplicaciones gráficas que utilizan DirectX u OpenGL. Estas instancias proporcionan redes de alto ancho de banda, potentes capacidades de punto flotante de precisión media y simple, junto con las precisiones INT8 e INT4. Cada GPU tiene 16 GiB de memoria GDDR6, lo que hace que las instancias G4dn sean adecuadas para interferencia de machine learning, transcodificación de video y aplicaciones de gráficos como estaciones de trabajo de gráficos remotas y streaming de juegos en la nube.

Para obtener más información, consulte Instancias Amazon EC2 G4.

Las instancias G4dn son compatibles con la estación de trabajo virtual de NVIDIA GRID. Para más información, consulte Ofertas de NVIDIA Marketplace.

Instancias G3

Estas instancias utilizan GPU Tesla M60 de NVIDIA y proporcionan una plataforma rentable y de alto rendimiento para aplicaciones gráficas mediante DirectX u OpenGL. Las instancias G3 también ofrecen características de estaciones de trabajo virtuales de NVIDIA GRID, como compatibilidad con 4 monitores con resoluciones de hasta 4096x2160 y aplicaciones virtuales, también de NVIDIA GRID. Las instancias G3 están equipadas adecuadamente para aplicaciones como visualizaciones en 3D, estaciones de trabajo remotas que hacen un uso intensivo de los gráficos, renderizado 3D, codificación de vídeo, realidad virtual y otras cargas de trabajo de gráficos del lado del servidor que necesitan capacidad de procesamiento paralelo de forma masiva.

Para obtener más información, consulte Instancias Amazon EC2 G3.

Las instancias G3 admiten aplicaciones y estaciones de trabajo virtuales de NVIDIA GRID y aplicaciones virtuales. Para activar cualquiera de esas características, consulte Activar aplicaciones virtuales de NVIDIA GRID.

Instancias G2

Estas instancias utilizan GPU GRID K520 de NVIDIA y proporcionan una plataforma rentable y de alto rendimiento para aplicaciones gráficas mediante DirectX u OpenGL. Las GPU GRID de NVIDIA además admiten la captura rápida de NVIDIA y las operaciones de API de codificación. Entre algunos ejemplos de aplicaciones se incluyen servicios de creación de vídeo, visualizaciones 3D, aplicaciones de streaming con un uso intensivo de gráficos y otras cargas de trabajo de gráficos del lado del servidor.

Instancias P5

Las instancias P5 proporcionan 8 GPU NVIDIA H100 con 640 GB de memoria de GPU de gran ancho de banda. Cuentan con procesadores AMD EPYC de tercera generación y proporcionan 2 TB de memoria de sistema, 30 TB de almacenamiento de instancias NVMe local, ancho de banda de la red agregado de 3200 Gps y compatibilidad con RDMA con GPUDirect. Las instancias P5 también admiten la tecnología Amazon EC2 UltraCluster, que proporciona una latencia más baja y un mejor rendimiento de la red mediante EFA. Para las cargas de trabajo de machine learning y HPC, las instancias P5 ofrecen un rendimiento hasta 6 veces mayor que las instancias de GPU de la generación anterior.

Las instancias P5 pueden acelerar una amplia gama de cargas de trabajo compatibles con la GPU y son ideales para aplicaciones informáticas de alto rendimiento y machine learning distribuido a gran escala.

Para obtener más información, consulte Instancias de Amazon EC2 P5.

Instancias P4d

Estas instancias utilizan GPU A100 de NVIDIA y proporcionan una plataforma de alto rendimiento para machine learning y las cargas de trabajo de HPC. Las instancias P4d ofrecen 400 Gbps de rendimiento de ancho de banda de red total y compatibilidad Elastic Fabric Adapter (EFA). Son las primeras instancias EC2 que proporcionan varias tarjetas de red.

Para obtener más información, consulte las Amazon EC2 instancias P4d.

Las instancias P4d admiten la interconexión de GPU NVSwitch de NVIDIA y RDMA GPUDirect de NVIDIA.

Las instancias P4de ofrecen GPU NVIDIA A100 de 80 GB

Instancias P3

Estas instancias V100 utilizan GPU Tesla V100 de NVIDIA y se han diseñado para la informática de GPU de uso general mediante los modelos de programación CUDA u OpenCL o a través de una plataforma de machine learning. Las instancias P3 ofrecen conexión en red de gran ancho de banda, potentes capacidades de punto flotante de precisión media, única o doble y hasta 32 GiB de memoria por GPU, lo que las hace ideales para aprendizaje profundo, bases de datos de gráficos, bases de datos de alto rendimiento, dinámica de fluidos computacional, finanzas computacionales, análisis sísmico, modelado molecular, genómica, renderizado y otras cargas de trabajo de computación de GPU del lado del servidor. Las GPU Tesla V100 no admiten el modo de gráficos.

Para obtener más información, consulte Instancias de Amazon EC2 P3.

Las instancias P3 admiten transferencias punto a punto de NVLink de NVIDIA. Para obtener más información, consulte NVIDIA NVLink.

Instancias P2

Las instancias P2 utilizan GPU de NVIDIA Tesla K80 y se han diseñado para la computación de GPU de uso general mediante los modelos de programación CUDA u OpenCL. Las instancias P2 ofrecen conexión en red de gran ancho de banda, potentes capacidades de punto flotante de precisión únicas o dobles y 12 GiB de memoria por GPU, lo que las hace ideales para aprendizaje profundo, bases de datos de gráficos, bases de datos de alto rendimiento, dinámica de fluidos computacional, finanzas computacionales, análisis sísmico, modelado molecular, genómica, renderizado y otras cargas de trabajo de computación de GPU del lado del servidor.

Las instancias P2 admiten transferencias de punto a punto de GPUDirect de NVIDIA. Para obtener más información, consulte NVIDIA GPUDirect.

Instancias con AWS Trainium

Las instancias de Amazon EC2 Trn1 y Trn1n, con tecnología Trainium de AWS, están diseñadas específicamente para ofrecer un entrenamiento de deep learning rentable y de alto rendimiento. Puede utilizar las instancias Trn1 y Trn1n para entrenar el procesamiento del lenguaje natural, la visión artificial y los modelos de recomendación que se utilizan en un amplio conjunto de aplicaciones, como el reconocimiento de voz, la recomendación, la detección de fraudes y la clasificación de imágenes y videos. Use los flujos de trabajo existentes en marcos de ML populares, como PyTorch y TensorFlow. AWS El SDK de Neuron se integra perfectamente en estos marcos para que pueda empezar con solo unos pocos cambios en las líneas de código.

Para obtener más información, consulte Instancias Trn1 de Amazon EC2.

Instancias con AWS Inferentia

Estas instancias están diseñadas para acelerar el Machine Learning mediante AWS Inferentia, un chip de IA y ML personalizado de Amazon que proporciona inferencia de Machine Learning de alto rendimiento y baja latencia. Estas instancias están optimizadas para implementar modelos de aprendizaje profundo (DL) para aplicaciones, como procesamiento de lenguaje natural, detección y clasificación de objetos, personalización y filtrado de contenido y reconocimiento de voz.

Hay una variedad de formas con las que puede comenzar.

  • Utilice SageMaker, un servicio totalmente administrado que es la forma más fácil de comenzar con los modelos de machine learning. Para obtener más información, consulte Introducción a SageMaker en la Guía para desarrolladores de Amazon SageMaker.

  • Inicie una instancia Inf1 o Inf2 mediante la AMI de deep learning. Para obtener más información, consulte AWS Inferentia con DLAMI en la Guía para desarrolladores de AWS Deep Learning AMI.

  • Lance una instancia Inf1 o Inf2 con su propia AMI e instale el Neuron SDK de AWS, que permite compilar, ejecutar y perfilar modelos de deep learning para la Inferentia de AWS.

  • Lance una instancia de contenedor mediante una instancia Inf1 o Inf2 y una AMI de Amazon ECS optimizada. Para obtener más información, consulte AMI de Amazon Linux 2 (Inferentia) en la Amazon Elastic Container Service Developer Guide.

  • Cree un clúster de Amazon EKS con nodos que ejecuten instancias Inf1. Para obtener más información, consulte Soporte de Inferentia en la Guía del usuario de Amazon EKS.

Para obtener más información, consulte Machine Learning en AWS.

Instancias Inf1

Las instancias Inf1 utilizan chips de inferencia de Machine Learning de AWS Inferentia. Inferentia se desarrolló para permitir un rendimiento de inferencia de baja latencia y alta rentabilidad a cualquier escala.

Para obtener más información, consulte Instancias de Amazon EC2 Inf1.

Instancias Inf2

Las instancias Inf2 utilizan chips de inferencia de Machine Learning de Inferentia2 de AWS. Estas instancias de segunda generación ofrecen una mejora de hasta un 25 por ciento en el costo por inferencia en comparación con las instancias Inf1 y hasta un 70 por ciento más en el costo por inferencia en comparación con las instancias comparables de Amazon EC2. Estas instancias son ideales para una amplia gama de cargas de trabajo que utilizan modelos de deep learning.

Para obtener más información, consulte Instancias de Amazon EC2 Inf2.

Instancias con aceleradores Habana

Estas instancias están diseñadas para acelerar las cargas de trabajo de entrenamiento del modelo de aprendizaje profundo (DL). Utilizan aceleradores de Habana Labs, una empresa de Intel. Estas instancias están optimizadas para modelos DL para aplicaciones de reconocimiento de imágenes, detección y clasificación de objetos y sistemas de recomendación.

Para obtener más información, consulte Machine Learning en AWS.

Instancias DL1

Las instancias DL1 utilizan aceleradores de Habana Gaudi. Ofrecen hasta 400 Gbps de banda ancha de red agregada, junto con 32 GB de memoria de banda ancha alta (HBM) por acelerador. Las instancias DL1 están diseñadas para proporcionar alto rendimiento y rentabilidad para el entrenamiento de modelos de aprendizaje profundo.

Hay una variedad de formas con las que puede comenzar.

Para obtener más información, consulte Instancias de Amazon EC2 DL1.

Instancias con aceleradores Qualcomm

DL2q

Las instancias DL2q utilizan aceleradores de inferencia Qualcomm AI100, que cuentan con núcleos de IA Qualcomm Edge de séptima generación. Se pueden utilizar para implementar cargas de trabajo de aprendizaje profundo (DL) de manera rentable en la nube o para validar el rendimiento y la precisión de las cargas de trabajo de DL que se implementarán en los dispositivos periféricos de Qualcomm.

Las instancias DL2q admiten un rendimiento de machine learning de hasta 1,4 petaFLOPS con 8 aceleradores Qualcomm AI100, 96 vCPU en CPU Intel Cascade Lake duales, 768 GB de memoria de sistema y 100 Gbps de ancho de banda de la red. Cada acelerador Qualcomm AI100 proporciona hasta 175 TFLOP de rendimiento de FP16 y 16 GB de memoria de aceleración.

Las instancias DL2q son ideales para validar las cargas de trabajo de IA avanzadas antes de implementarlas en teléfonos inteligentes, automóviles, robots y cascos de realidad extendida. También admiten la inferencia en la nube para ejecutar aplicaciones populares de DL, como la generación de contenido, el análisis de imágenes, el resumen de textos y los asistentes virtuales.

Para empezar a usar las instancias DL2q, le recomendamos que utilice la AMI de aprendizaje profundo de AWS (DLAMI), que viene preempaquetada con el kit de desarrollo de software (SDK) de aplicaciones y plataformas de Qualcomm, y los marcos de machine learning más populares, como PyTorch y TensorFlow.

Para obtener más información, consulte Amazon EC2 DL2q Instances.

Instancias de transcodificación de video

Estas instancias están diseñadas para acelerar las cargas de trabajo de transcodificación de video, como la transmisión en directo, las videoconferencias y la transcodificación justo a tiempo.

Instancias VT1

Las instancias VT1 cuentan con aceleradores de medios Xilinx Alveo U30 y se encuentran diseñadas para cargas de trabajo de transcodificación de video en directo. Estas instancias ofrecen hasta 8 tarjetas de aceleración Xilinx Alveo U30, proporcionan hasta 192 GB de memoria del sistema y hasta 25 Gbps de banda ancha de red. Las instancias VT1 cuentan con códecs H.264/AVC y H.265/HEVC y admiten resoluciones UHD de hasta 4K para transcodificación de video de múltiples transmisiones.

Hay una variedad de formas con las que puede comenzar.

  • Inicie una instancia VT1 mediante las AMI Xilinx U30 en AWS Marketplace.

  • Inicie una instancia VT1 mediante su propia AMI e instale los controladores Xilinx U30 y el SDK de video Xilinx.

  • Lance una instancia de contenedor mediante una instancia VT1 y una AMI de Amazon ECS optimizada.

  • Cree un clúster de Amazon EKS con nodos que ejecuten instancias VT1.

Para obtener más información, consulte Instancias de Amazon EC2 VT1.

Instancias FPGA

Las instancias basadas en FPGA ofrecen acceso a grandes FPGA con millones de celdas de lógica de sistemas paralelos. Puede utilizar las instancias de computación acelerada basadas en FPGA para acelerar cargas de trabajo de genómica, análisis financieros, procesamiento de vídeo en tiempo real, análisis de big data y seguridad, aprovechando las aceleraciones de hardware personalizadas. Puede desarrollar estas aceleraciones mediante lenguajes de descripción de hardware como Verilog o VHDL, o con el uso de lenguajes de nivel superior como marcos de trabajo de computación paralela OpenCL. Puede desarrollar su propio código de aceleración de hardware o bien adquirir aceleraciones de hardware a través de AWS Marketplace.

La AMI de desarrolladores de FPGA ofrece las herramientas necesarias para desarrollar, probar y crear AFI. Puede utilizar la AMI de desarrolladores de FPGA en cualquier instancia EC2 con al menos 32 GB de memoria de sistema (por ejemplo, instancias C5, M4 y R4).

Para obtener más información, consulte la documentación del Kit de desarrollo de Hardware FPGA de AWS.

Instancias F1

Las instancias F1 utilizan FPGA Xilinx UltraScale+ VU9P y se han diseñado para acelerar algoritmos que usan muchos recursos informáticos, como operaciones de flujo de datos o altamente paralelas y no indicadas para las CPU de uso general. Cada FPGA en una instancia F1 contiene alrededor de 2,5 millones de elementos lógicos y alrededor de 6800 motores de procesamiento de señales digitales (DSP), además de 64 GiB de memoria local protegida DDR ECC, conectados a la instancia mediante una conexión dedicada PCIe Gen3 x16. Las instancias F1 proporcionan volúmenes locales SSD de NVMe.

Los desarrolladores pueden utilizar la AMI de desarrolladores de FPGA y el kit de desarrollador de hardware de AWS para crear aceleraciones de hardware personalizadas para su uso en instancias F1. La AMI de desarrolladores de FPGA incluye herramientas de desarrollo para el desarrollo de FPGA de ciclo completo en la nube. Con estas herramientas, los desarrolladores pueden crear y compartir imágenes de Amazon FPGA (AFIs) que se pueden cargar en la FPGA de una instancia F1.

Para obtener más información, consulte Instancias de Amazon EC2 F1.

Especificaciones de hardware

A continuación, se presenta un resumen de las especificaciones de hardware que requieren las instancias de computación acelerada. Una unidad de procesamiento central virtual (vCPU) representa una parte de la CPU física asignada a una máquina virtual (VM). Para las instancias x86, hay dos vCPU por núcleo. Para las instancias Graviton, hay una vCPU por núcleo.

Tipo de instancia vCPU predeterminadas Memoria (GiB) Aceleradores
dl1.24xlarge 96 768,00 8 GPU
dl2q.24xlarge 96 768,00 8 aceleradores de inferencia
f1.2xlarge 8 122,00 1 FPGA
f1.4xlarge 16 244,00 2 FPGA
f1.16xlarge 64 976,00 8 FPGA
g2.2xlarge 8 15,00 1 GPU
g2.8xlarge 32 60,00 4 GPU
g3.4xlarge 16 122,00 1 GPU
g3.8xlarge 32 244,00 2 GPU
g3.16xlarge 64 488,00 4 GPU
g4ad.xlarge 4 16,00 1 GPU
g4ad.2xlarge 8 32,00 1 GPU
g4ad.4xlarge 16 64,00 1 GPU
g4ad.8xlarge 32 128,00 2 GPU
g4ad.16xlarge 64 256,00 4 GPU
g4dn.xlarge 4 16,00 1 GPU
g4dn.2xlarge 8 32,00 1 GPU
g4dn.4xlarge 16 64,00 1 GPU
g4dn.8xlarge 32 128,00 1 GPU
g4dn.12xlarge 48 192,00 4 GPU
g4dn.16xlarge 64 256,00 1 GPU
g4dn.metal 96 384,00 8 GPU
g5.xlarge 4 16,00 1 GPU
g5.2xlarge 8 32,00 1 GPU
g5.4xlarge 16 64,00 1 GPU
g5.8xlarge 32 128,00 1 GPU
g5.12xlarge 48 192,00 4 GPU
g5.16xlarge 64 256,00 1 GPU
g5.24xlarge 96 384,00 4 GPU
g5.48xlarge 192 768,00 8 GPU
g5g.xlarge 4 8,00 1 GPU
g5g.2xlarge 8 16,00 1 GPU
g5g.4xlarge 16 32,00 1 GPU
g5g.8xlarge 32 64,00 1 GPU
g5g.16xlarge 64 128,00 2 GPU
g5g.metal 64 128,00 2 GPU
inf1.xlarge 4 8,00 1 acelerador de inferencias
inf1.2xlarge 8 16,00 1 acelerador de inferencias
inf1.6xlarge 24 48,00 4 aceleradores de inferencias
inf1.24xlarge 96 192,00 16 aceleradores de inferencias
inf2.xlarge 4 16,00 1 acelerador de inferencias
inf2.8xlarge 32 128,00 1 acelerador de inferencias
inf2.24xlarge 96 384,00 6 acelerador de inferencias
inf2.48xlarge 192 768,00 12 aceleradores de inferencias
p2.xlarge 4 61,00 1 GPU
p2.8xlarge 32 488,00 8 GPU
p2.16xlarge 64 732,00 16 GPU
p3.2xlarge 8 61,00 1 GPU
p3.8xlarge 32 244,00 4 GPU
p3.16xlarge 64 488,00 8 GPU
p3dn.24xlarge 96 768,00 8 GPU
p4d.24xlarge 96 1152,00 8 GPU
p4de.24xlarge 96 1152,00 8 GPU
p5.48xlarge 192 2048,00 8 GPU
trn1.2xlarge 8 32,00
trn1.32xlarge 128 512,00
trn1n.32xlarge 128 512,00
vt1.3xlarge 12 24,00
vt1.6xlarge 24 48,00
vt1.24xlarge 96 192,00
nota

Las instancias trn1n.32xlarge cuentan con 16 aceleradores Trainium.

Las instancias Trn1 cuentan con la siguiente cantidad de aceleradores Trainium.

  • trn1.2xlarge: 1

  • trn1.32xlarge: 16

Las instancias VT1 cuentan con la siguiente cantidad de aceleradores U30.

  • vt1.3xlarge: 1

  • vt1.6xlarge: 2

  • vt1.24xlarge: 16

Las instancias de computación aceleradas utilizan los siguientes procesadores.

Procesadores AWS Graviton
  • AWS Graviton2: G5g

Procesadores AMD
  • Procesadores AMD EPYC de 2.ª generación (AMD EPYC 7R32): G4ad, G5

  • Procesadores AMD EPYC de 3.ª generación (AMD EPYC 7R13): P5

Procesadores Intel
  • Procesadores Intel Xeon Scalable (Broadwell E5-2686 v4): F1, G3, P2, P3

  • Procesadores Intel Xeon Scalable (Skylake 8175): P3dn

  • Procesadores Intel Xeon Scalable de 2.ª generación (Cascade Lake P-8275CL): DL1, P4d, P4de

  • Procesadores Intel Xeon Scalable de 2.ª generación (Cascade Lake P-8259CL): DL2q, G4dn, Inf1, VT1

  • Procesadores Intel Xeon Scalable de 3.ª generación (Cascade Lake 8375C): Trn1

Para obtener especificaciones detalladas, consulte Especificaciones en la Guía de tipos de instancias de Amazon EC2. Para información sobre los precios, consulte Tipos de instancias de Amazon EC2.

Rendimiento de las instancias

Existen varias optimizaciones de configuración de GPU que puede llevar a cabo para lograr el mejor rendimiento en sus instancias. Para obtener más información, consulte Optimizar la configuración de GPU.

Las instancias optimizadas para EBS permiten obtener un alto rendimiento de forma uniforme para sus volúmenes de EBS al eliminar la contención entre la E/S de Amazon EBS y otro tráfico de red procedente de la instancia. Algunas instancias de computación acelerada están optimizadas para EBS de forma predeterminada sin costos adicionales. Para obtener más información, consulte Instancias optimizadas para Amazon EBS.

Algunos tipos de instancia de computación acelerada ofrecen la capacidad de controlar los estados C y P del procesador en Linux. Los estados C controlan los niveles de suspensión en los que puede entrar un núcleo cuando está inactivo, mientras que los estados P controlan el rendimiento deseado (en frecuencia de CPU) desde un núcleo. Para obtener más información, consulte Control de los estados del procesador de la instancia EC2.

Rendimiento de la red

Puede habilitar redes mejoradas en tipos de instancias compatibles para proporcionar latencias más bajas, menor fluctuación de red y mayor rendimiento de paquete por segundo (PPS). La mayoría de las aplicaciones no necesitan constantemente un alto nivel de rendimiento de la red, pero pueden beneficiarse del acceso a un mayor ancho de banda cuando envían o reciben datos. Para obtener más información, consulte Redes mejoradas en Linux.

A continuación, se presenta un resumen del rendimiento de la red de las instancias de computación acelerada que admiten redes mejoradas.

nota

Los tipos de instancias marcadas con tienen un ancho de banda de base y pueden utilizar un mecanismo de créditos de E/S de red para superar el ancho de banda de base en función del esfuerzo. Para obtener más información, consulte Banda ancha de instancias de red.

Tipo de instancia Rendimiento de la red Características de red mejorada
dl1.24xlarge 4x 100 gigabits ENA | EFA
dl2q.24xlarge 100 gigabits ENA | EFA
f1.2xlarge Hasta 10 gigabits No compatible
f1.4xlarge Hasta 10 gigabits No compatible
f1.16xlarge 25 gigabits No compatible
g2.2xlarge Moderado No compatible
g2.8xlarge Alta No compatible
g3.4xlarge Hasta 10 gigabits ENA
g3.8xlarge 10 gigabits ENA
g3.16xlarge 25 gigabits ENA
g4ad.xlarge Hasta 10 gigabits ENA
g4ad.2xlarge Hasta 10 gigabits ENA
g4ad.4xlarge Hasta 10 gigabits ENA
g4ad.8xlarge 15 gigabits ENA
g4ad.16xlarge 25 gigabits ENA
g4dn.xlarge Hasta 25 gigabits ENA
g4dn.2xlarge Hasta 25 gigabits ENA
g4dn.4xlarge Hasta 25 gigabits ENA
g4dn.8xlarge 50 gigabits ENA | EFA
g4dn.12xlarge 50 gigabits ENA | EFA
g4dn.16xlarge 50 gigabits ENA | EFA
g4dn.metal 100 gigabits ENA | EFA
g5.xlarge Hasta 10 gigabits ENA
g5.2xlarge Hasta 10 gigabits ENA
g5.4xlarge Hasta 25 gigabits ENA
g5.8xlarge 25 gigabits ENA | EFA
g5.12xlarge 40 gigabits ENA | EFA
g5.16xlarge 25 gigabits ENA | EFA
g5.24xlarge 50 gigabits ENA | EFA
g5.48xlarge 100 gigabits ENA | EFA
g5g.xlarge Hasta 10 gigabits ENA
g5g.2xlarge Hasta 10 gigabits ENA
g5g.4xlarge Hasta 10 gigabits ENA
g5g.8xlarge 12 gigabits ENA
g5g.16xlarge 25 gigabits ENA
g5g.metal 25 gigabits ENA
inf1.xlarge Hasta 25 gigabits ENA
inf1.2xlarge Hasta 25 gigabits ENA
inf1.6xlarge 25 gigabits ENA
inf1.24xlarge 100 gigabits ENA | EFA
inf2.xlarge Hasta 15 gigabits ENA
inf2.8xlarge Hasta 25 gigabits ENA
inf2.24xlarge 50 gigabits ENA
inf2.48xlarge 100 gigabits ENA
p2.xlarge Alta ENA
p2.8xlarge 10 gigabits ENA
p2.16xlarge 25 gigabits ENA
p3.2xlarge Hasta 10 gigabits ENA
p3.8xlarge 10 gigabits ENA
p3.16xlarge 25 gigabits ENA
p3dn.24xlarge 100 gigabits ENA | EFA
p4d.24xlarge 4x 100 gigabits ENA | EFA
p4de.24xlarge 4x 100 gigabits ENA | EFA
p5.48xlarge 3200 gigabits ENA | EFA
trn1.2xlarge Hasta 12,5 gigabits ENA
trn1.32xlarge 8x 100 gigabits ENA | EFA
trn1n.32xlarge 16x 100 Gigabit ENA | EFA
vt1.3xlarge 3,12 gigabits ENA
vt1.6xlarge 6,25 gigabits ENA
vt1.24xlarge 25 gigabits ENA | EFA

La siguiente tabla muestra el ancho de banda de base y de ampliación de los tipos de instancias que utilizan el mecanismo de créditos de E/S de red para superar el ancho de banda de base.

Tipo de instancia Banda ancha de base (Gbps) Banda ancha con ráfagas (Gbps)
f1.2xlarge 2,5 10
f1.4xlarge 5 10
g3.4xlarge 5 10
g4ad.xlarge 2.0 10.0
g4ad.2xlarge 4,167 10.0
g4ad.4xlarge 8,333 10.0
g4dn.xlarge 5.0 25.0
g4dn.2xlarge 10.0 25.0
g4dn.4xlarge 20.0 25.0
g5.xlarge 2,5 10.0
g5.2xlarge 5.0 10.0
g5.4xlarge 10.0 25.0
g5g.xlarge 1,25 10.0
g5g.2xlarge 2,5 10.0
g5g.4xlarge 5.0 10.0
inf1.xlarge 5.0 25.0
inf1.2xlarge 5.0 25.0
inf2.xlarge 2,083 15,0
inf2.8xlarge 16,667 25.0
trn1.2xlarge 3125 12,5

Rendimiento de E/S de Amazon EBS

Las instancias optimizadas para Amazon EBS utilizan una pila de configuración optimizada y proporcionan capacidad adicional y dedicada para las E/S de Amazon EBS. Esta optimización proporciona el mejor rendimiento para sus volúmenes de Amazon EBS, ya que reduce al mínimo la contención entre las E/S de Amazon EBS y otro tráfico procedente de la instancia.

Para obtener más información, consulte Instancias optimizadas para Amazon EBS.

Rendimiento de E/S del volumen de almacén de instancias basado en SSD

Si se utiliza una AMI de Linux con la versión del kernel 4.4 o posterior y se utilizan todos los volúmenes del almacén de instancias basados en SSD disponibles para la instancia, se puede obtener el rendimiento de IOPS (tamaño de bloque de 4096 bytes) indicado en la tabla siguiente como máximo (en saturación de profundidad de cola). De lo contrario, obtendrá un rendimiento de IOPS inferior.

Tamaño de instancia IOPS de lectura aleatoria al 100% IOPS de escritura
dl1.24xlarge 1000000 800 000
g4ad.xlarge 10 417 8333
g4ad.2xlarge 20 833 16 667
g4ad.4xlarge 41 667 33 333
g4ad.8xlarge 83 333 66 667
g4ad.16xlarge 166 666 133 332
g4dn.xlarge 42 500 32 500
g4dn.2xlarge 42 500 32 500
g4dn.4xlarge 85 000 65 000
g4dn.8xlarge 250 000 200 000
g4dn.12xlarge 250 000 200 000
g4dn.16xlarge 250 000 200 000
g4dn.metal 500 000 400 000
g5.xlarge 40 625 20 313
g5.2xlarge 40 625 20 313
g5.4xlarge 125 000 62500
g5.8xlarge 250 000 125 000
g5.12xlarge 312 500 156 250
g5.16xlarge 250 000 125 000
g5.24xlarge 312 500 156 250
g5.48xlarge 625 000 312 500
p3dn.24xlarge 700000 340 000
p4d.24xlarge 2000000 1 600 000
p4de.24xlarge 2000000 1 600 000
p5.48xlarge 4 400 000 2 200 000
trn1.2xlarge 107 500 45 000
trn1.32xlarge 1 720 000 720 000
trn1n.32xlarge 1 720 000 720 000

A medida que llena los volúmenes de almacén de instancias basadas en SSD para la instancia, disminuye el número de IOPS de escritura que se pueden obtener. Esto se debe al trabajo adicional que debe realizar el controlador SSD para encontrar espacio disponible, volver a escribir los datos existentes y borrar el espacio no utilizado para que se pueda volver a escribir. Este proceso de recopilación de elementos no utilizados genera una amplificación de escritura interna en el SSD, expresada como ratio de operaciones de escritura de SSD con respecto a las operaciones de escritura del usuario. Este descenso del rendimiento es aún mayor si las operaciones de escritura no están en múltiplos de 4096 bytes o no están alineadas con un límite de 4096 bytes. Si escribe una cantidad más pequeña de bytes o bytes que no están alineados, el controlador SSD debe leer los datos circundantes y almacenar el resultado en una nueva ubicación. Este patrón genera una amplificación de escritura significativamente mayor, una mayor latencia y se reduce en gran medida el rendimiento de E/S.

Los controladores SSD pueden utilizar varias estrategias para reducir el impacto de la amplificación de escritura. Una de estas estrategias es reservar espacio en el almacén de instancias SSD para que el controlador pueda administrar con más eficiencia el espacio disponible para las operaciones de escritura. Esto se llama aprovisionamiento excesivo. Los volúmenes de almacén de instancias basadas en SSD proporcionados para una instancia no tienen espacio reservado para el aprovisionamiento excesivo. Para reducir la amplificación de escritura, recomendamos dejar un 10% del volumen sin particiones, de modo que el controlador SSD pueda utilizarlo para el aprovisionamiento excesivo. Esto reduce el almacenamiento que se puede utilizar, pero aumenta el rendimiento aunque el disco esté a punto de llegar a su capacidad máxima.

Para los volúmenes de almacén de instancias que admiten TRIM, puede utilizar el comando TRIM para notificar al controlador SSD cuando deje de necesitar los datos que ha escrito. Esto aporta al controlador más espacio libre, lo que puede reducir la amplificación de escritura y aumentar el rendimiento. Para obtener más información, consulte Soporte TRIM del volumen de almacén de instancias.

Notas de la versión

  • Para obtener el mejor rendimiento con las instancias P5, le recomendamos que haga lo siguiente:

  • Debe lanzar la instancia con una AMI de HVM.

  • Las instancias creadas en el sistema Nitro tienen los siguientes requisitos:

    Las AMI para Linux siguientes cumplen estos requisitos:

    • AL2023

    • Amazon Linux 2

    • AMI de Amazon Linux 2018.03 y posterior

    • Ubuntu 14.04 o versiones posteriores con el kernel linux-aws

      nota

      Los tipos de instancias basados en AWS Graviton requieren Ubuntu 18.04 o versiones posteriores con kernel linux-aws

    • Red Hat Enterprise Linux 7.4 o versiones posteriores

    • SUSE Linux Enterprise Server 12 SP2 o versiones posteriores

    • CentOS 7.4.1708 o versiones posteriores

    • FreeBSD 11.1 o versiones posteriores

    • Debian GNU/Linux 9 o versiones posteriores

  • Las instancias basadas en GPU no pueden obtener acceso a la GPU a menos que estén instalados los controladores de NVIDIA. Para obtener más información, consulte Instalación de controladores NVIDIA en instancias de Linux.

  • Si lanza una instancia "bare metal", arrancará el servidor subyacente, lo que incluye verificar todos los componentes de hardware y de firmware. Esto, a su vez, supone que se tardarán 20 minutos desde el momento en que la instancia entre en estado de ejecución hasta que pase a estar disponible en la red.

  • Para adjuntar o desconectar volúmenes EBS o interfaces de red secundarias de una instancia bare metal, es preciso admitir la conexión en caliente nativa de PCIe. Amazon Linux 2 y las versiones más recientes de la AMI de Amazon Linux admiten la conexión en caliente nativa de PCIe, pero no así las versiones anteriores. Debe habilitar las opciones de configuración de kernel de Linux siguientes:

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Las instancias "bare metal" usan un dispositivo en serie basado en PCI en vez de un dispositivo en serie basado en puerto de E/S. El kernel de Linux ascendente y las últimas AMI de Amazon Linux son compatibles con este dispositivo. Las instancias "bare metal" también proporcionan una tabla SPCR de ACPI para permitir que el sistema use automáticamente el dispositivo en serie basado en PCI. Las últimas AMI de Windows usan automáticamente el dispositivo en serie basado en PCI.

  • Existe un límite de 100 AFI por región.

  • El número total de instancias que se puede lanzar en una región tiene un límite y existen límites adicionales para algunos tipos de instancia. Para obtener más información, consulte ¿Cuántas instancias puedo ejecutar en Amazon EC2? en las preguntas frecuentes de Amazon EC2.