Instancias de computación acelerada de Windows - Amazon Elastic Compute Cloud

Instancias de computación acelerada de Windows

Las familias de instancias de computación acelerada utilizan aceleradores de hardware, o coprocesadores, para realizar algunas funciones, como cálculos numéricos de coma flotante, procesamiento de gráficos o coincidencia de patrones de datos de un modo más eficiente que con software ejecutándose en CPU. Estas instancias hacen posible un mayor paralelismo para conseguir un mayor rendimiento en las cargas de trabajo que hacen un uso intensivo de los recursos informáticos.

Si necesita una alta capacidad de procesamiento, se beneficiará del uso de instancias de computación acelerada, ya que ofrecen acceso a aceleradores de computación basados en hardware como unidades de procesamiento gráfico (GPU).

Instancias de GPU

Las instancias basadas en GPU ofrecen acceso a GPU de NVIDIA con miles de núcleos de computación. Puede utilizar estas instancias para acelerar aplicaciones científicas, de ingeniería y de renderizado aprovechando los marcos de trabajo de computación paralela CUDA u Open Computing Language (OpenCL). También las puede utilizar para aplicaciones de gráficos, incluido el streaming de juegos, el streaming de aplicaciones 3-D y otras cargas de trabajo de gráficos.

Si su aplicación necesita una pequeña cantidad de aceleración de gráficos adicional, pero encaja mejor en un tipo de instancia con diferentes especificaciones de computación, memoria o almacenamiento, utilice un acelerador de Elastic Graphics en su lugar. Para obtener más información, consulte Amazon Elastic Graphics .

Instancias G5

Las instancias G5 utilizan GPU NVIDIA A10G y proporcionan un alto rendimiento para aplicaciones de uso intensivo de gráficos, tales como estaciones de trabajo remotas, renderizado de video y videojuegos en la nube, así como modelos de aprendizaje profundo para aplicaciones como procesamiento de lenguaje natural, visión artificial y motores de recomendación. Estas instancias incluyen hasta 8 GPU NVIDIA A10G, procesadores AMD EPY de segunda generación, hasta 100 Gbps de ancho de banda de la red y hasta 7,6 TB de almacenamiento SSD NVMe local.

Para obtener más información, consulte Instancias G5 de Amazon EC2.

Instancias de G4ad y G4dn

Las instancias G4ad utilizan GPU AMD Radeon Pro V520 y procesadores AMD EPYC de segunda generación, y son adecuadas para aplicaciones gráficas como estaciones de trabajo gráficas remotas, streaming de juegos y renderizado que aprovechan las API estándar del sector, como OpenGL, DirectX y Vulkan. Proporcionan hasta 4 GPU AMD Radeon Pro V520, 64 vCPU, redes de 25 Gbps y 2,4 TB de almacenamiento SSD local basado en NVME.

Las instancias de G4dn utilizan las GPU NVIDIA Tesla y proporcionan una plataforma rentable y de alto rendimiento para la informática de GPU de carácter general mediante el uso de CUDA o marcos de machine learning junto con aplicaciones gráficas que utilizan DirectX u OpenGL. Estas instancias proporcionan redes de alto ancho de banda, potentes capacidades de punto flotante de precisión media y simple, junto con las precisiones INT8 e INT4. Cada GPU tiene 16 GiB de memoria GDDR6, lo que hace que las instancias G4dn sean adecuadas para interferencia de machine learning, transcodificación de video y aplicaciones de gráficos como estaciones de trabajo de gráficos remotas y streaming de juegos en la nube.

Para obtener más información, consulte Instancias Amazon EC2 G4.

Las instancias G4dn son compatibles con la estación de trabajo virtual de NVIDIA GRID. Para más información, consulte Ofertas de NVIDIA Marketplace.

Instancias G3

Estas instancias utilizan GPU Tesla M60 de NVIDIA y proporcionan una plataforma rentable y de alto rendimiento para aplicaciones gráficas mediante DirectX u OpenGL. Las instancias G3 también ofrecen características de estaciones de trabajo virtuales de NVIDIA GRID, como compatibilidad con 4 monitores con resoluciones de hasta 4096x2160 y aplicaciones virtuales, también de NVIDIA GRID. Las instancias G3 están equipadas adecuadamente para aplicaciones como visualizaciones en 3D, estaciones de trabajo remotas que hacen un uso intensivo de los gráficos, renderizado 3D, codificación de vídeo, realidad virtual y otras cargas de trabajo de gráficos del lado del servidor que necesitan capacidad de procesamiento paralelo de forma masiva.

Para obtener más información, consulte Instancias Amazon EC2 G3.

Las instancias G3 admiten aplicaciones y estaciones de trabajo virtuales de NVIDIA GRID y aplicaciones virtuales. Para activar cualquiera de esas características, consulte Activar aplicaciones virtuales de NVIDIA GRID.

Instancias G2

Estas instancias utilizan GPU GRID K520 de NVIDIA y proporcionan una plataforma rentable y de alto rendimiento para aplicaciones gráficas mediante DirectX u OpenGL. Las GPU GRID de NVIDIA además admiten la captura rápida de NVIDIA y las operaciones de API de codificación. Entre algunos ejemplos de aplicaciones se incluyen servicios de creación de vídeo, visualizaciones 3D, aplicaciones de streaming con un uso intensivo de gráficos y otras cargas de trabajo de gráficos del lado del servidor.

Las instancias P4de ofrecen GPU NVIDIA A100 de 80 GB

Instancias P3

Estas instancias V100 utilizan GPU Tesla V100 de NVIDIA y se han diseñado para la informática de GPU de uso general mediante los modelos de programación CUDA u OpenCL o a través de una plataforma de machine learning. Las instancias P3 ofrecen conexión en red de gran ancho de banda, potentes capacidades de punto flotante de precisión media, única o doble y hasta 32 GiB de memoria por GPU, lo que las hace ideales para aprendizaje profundo, bases de datos de gráficos, bases de datos de alto rendimiento, dinámica de fluidos computacional, finanzas computacionales, análisis sísmico, modelado molecular, genómica, renderizado y otras cargas de trabajo de computación de GPU del lado del servidor. Las GPU Tesla V100 no admiten el modo de gráficos.

Para obtener más información, consulte Instancias de Amazon EC2 P3.

Las instancias P3 admiten transferencias punto a punto de NVLink de NVIDIA. Para obtener más información, consulte NVIDIA NVLink.

Instancias P2

Las instancias P2 utilizan GPU de NVIDIA Tesla K80 y se han diseñado para la computación de GPU de uso general mediante los modelos de programación CUDA u OpenCL. Las instancias P2 ofrecen conexión en red de gran ancho de banda, potentes capacidades de punto flotante de precisión únicas o dobles y 12 GiB de memoria por GPU, lo que las hace ideales para aprendizaje profundo, bases de datos de gráficos, bases de datos de alto rendimiento, dinámica de fluidos computacional, finanzas computacionales, análisis sísmico, modelado molecular, genómica, renderizado y otras cargas de trabajo de computación de GPU del lado del servidor.

Las instancias P2 admiten transferencias de punto a punto de GPUDirect de NVIDIA. Para obtener más información, consulte NVIDIA GPUDirect.

Instancias con AWS Trainium

Las instancias de Amazon EC2 Trn1, con tecnología de AWS Trainium, están diseñadas específicamente para ofrecer un entrenamiento en aprendizaje profundo rentable y de alto rendimiento. Puede utilizar las instancias Trn1 para entrenar el procesamiento del lenguaje natural, la visión artificial y los modelos de recomendación que se utilizan en un amplio conjunto de aplicaciones, como el reconocimiento de voz, la recomendación, la detección de fraudes y la clasificación de imágenes y videos. Use los flujos de trabajo existentes en marcos de ML populares, como PyTorch y TensorFlow. AWS El SDK de Neuron se integra perfectamente en estos marcos para que pueda empezar con solo unos pocos cambios en las líneas de código.

Para obtener más información, consulte Instancias Trn1 de Amazon EC2.

Especificaciones de hardware

A continuación, se presenta un resumen de las especificaciones de hardware que requieren las instancias de computación acelerada. Una unidad de procesamiento central virtual (vCPU) representa una parte de la CPU física asignada a una máquina virtual (VM). Para las instancias x86, hay dos vCPU por núcleo. Para las instancias Graviton, hay una vCPU por núcleo.

Tipo de instancia vCPU predeterminadas Memoria (GiB) Aceleradores
g2.2xlarge 8 15 1
g2.8xlarge 32 60 4
g3s.xlarge 4 30.5 1
g3.4xlarge 16 122 1
g3.8xlarge 32 244 2
g3.16xlarge 64 488 4
g4ad.xlarge 4 16 1
g4ad.2xlarge 8 32 1
g4ad.4xlarge 16 64 1
g4ad.8xlarge 32 128 2
g4ad.16xlarge 64 256 4
g4dn.xlarge 4 16 1
g4dn.2xlarge 8 32 1
g4dn.4xlarge 16 64 1
g4dn.8xlarge 32 128 1
g4dn.12xlarge 48 192 4
g4dn.16xlarge 64 256 1
g4dn.metal 96 384 8
g5.xlarge 4 16 1
g5.2xlarge 8 32 1
g5.4xlarge 16 64 1
g5.8xlarge 32 128 1
g5.12xlarge 48 192 4
g5.16xlarge 64 256 1
g5.24xlarge 96 384 4
g5.48xlarge 192 768 8
p2.xlarge 4 61 1
p2.8xlarge 32 488 8
p2.16xlarge 64 732 16
p3.2xlarge 8 61 1
p3.8xlarge 32 244 4
p3.16xlarge 64 488 8
p3dn.24xlarge 96 768 8
trn1.2xlarge 8 32 1
trn1.32xlarge 128 512 16

Las instancias de computación aceleradas utilizan los siguientes procesadores.

Procesadores AMD

  • Procesadores AMD EPYC de 2.ª generación (AMD EPYC 7R32): G4ad, G5

Procesadores Intel

  • Procesadores Intel Xeon Scalable (Broadwell E5-2686 v4): , G3, P2, P3

  • Procesadores Intel Xeon Scalable (Skylake 8175): P3dn

  • Procesadores Intel Xeon Scalable de 2.ª generación (Cascade Lake P-8259CL): VT1

  • Procesadores Intel Xeon Scalable de 2.ª generación (Cascade Lake P-8259L): G4dn

Para obtener más información, consulte Tipos de instancia Amazon EC2.

Rendimiento de las instancias

Las instancias optimizadas para EBS permiten obtener un alto rendimiento de forma uniforme para sus volúmenes de EBS al eliminar la contención entre la E/S de Amazon EBS y otro tráfico de red procedente de la instancia. Algunas instancias de computación acelerada están optimizadas para EBS de forma predeterminada sin costos adicionales. Para obtener más información, consulte Instancias optimizadas para Amazon EBS.

Rendimiento de la red

Puede habilitar redes mejoradas en tipos de instancias compatibles para proporcionar latencias más bajas, menor fluctuación de red y mayor rendimiento de paquete por segundo (PPS). La mayoría de las aplicaciones no necesitan constantemente un alto nivel de rendimiento de la red, pero pueden beneficiarse del acceso a un mayor ancho de banda cuando envían o reciben datos. Para obtener más información, consulte Redes mejoradas en Windows.

A continuación, se presenta un resumen del rendimiento de la red de las instancias de computación acelerada que admiten redes mejoradas.

Tipo de instancia Rendimiento de la red Redes mejoradas
3,125 Gbps ENA
6,25 Gbps ENA
g3.4xlarge | g3s.xlarge | g4ad.4xlarge and smaller | g5.2xlarge y menores | p3.2xlarge Hasta 10 Gbps † ENA
g3.8xlarge | p2.8xlarge | p3.8xlarge 10 Gbps ENA
g4ad.8xlarge 15 Gbps ENA
g4dn.4xlarge y menor | g5.4xlarge Hasta 25 Gbps † ENA
g3.16xlarge | g4ad.16xlarge | g5.8xlarge | g5.16xlarge | p2.16xlarge | p3.16xlarge | 25 Gbps ENA
g5.12xlarge 40 Gbps ENA
g4dn.8xlarge | g4dn.12xlarge | g4dn.16xlarge | g5.24xlarge 50 Gbps ENA
g4dn.metal | g5.48xlarge | p3dn.24xlarge 100 Gbps ENA
trn1.2xlarge Hasta 12,5 Gbps ENA
trn1.32xlarge 800 Gbps ENA

† Estas instancias tienen una banda ancha de base y pueden utilizar un mecanismo de créditos de E/S de red para superar la banda ancha de base en función del esfuerzo. Para obtener más información, consulte Banda ancha de instancias de red.

Tipo de instancia Banda ancha de base (Gbps) Banda ancha con ráfagas (Gbps)
g3.4xlarge 5 10
g3s.xlarge 1,25 10
g4ad.xlarge 2 10
g4ad.2xlarge 4,167 10
g4ad.4xlarge 8,333 10
g4dn.xlarge 5 25
g4dn.2xlarge 10 25
g4dn.4xlarge 20 25
g5.xlarge 2,5 10
g5.2xlarge 5 10
g5.4xlarge 10 25
p3.2xlarge 2,5 10
Trn1.2xlarge 3125 12,5
Trn1.32xlarge 800 N/A

Rendimiento de E/S de Amazon EBS

Las instancias optimizadas para Amazon EBS utilizan una pila de configuración optimizada y proporcionan capacidad adicional y dedicada para las E/S de Amazon EBS. Esta optimización proporciona el mejor rendimiento para sus volúmenes de Amazon EBS, ya que reduce al mínimo la contención entre las E/S de Amazon EBS y otro tráfico procedente de la instancia.

Para obtener más información, consulte Instancias optimizadas para Amazon EBS .

Rendimiento de E/S del volumen de almacén de instancias

Si se se utilizan todos los volúmenes del almacén de instancias basados en SSD disponibles para la instancia, se puede obtener el rendimiento de IOPS (tamaño de bloque de 4096 bytes) indicado en la tabla siguiente como máximo (en saturación de profundidad de cola). De lo contrario, obtendrá un rendimiento de IOPS inferior.

Tamaño de instancia IOPS de lectura aleatoria al 100% IOPS de escritura
g4ad.xlarge 10 417 8,333
g4ad.2xlarge 20 833 16 667
g4ad.4xlarge 41 667 33 333
g4ad.8xlarge 83 333 66 667
g4ad.16xlarge 166 667 133 333
g5.xlarge 40 625 20 313
g5.2xlarge 40 625 20 313
g5.4xlarge 125 000 62 500
g5.8xlarge 250.000 125 000
g5.12xlarge 312 500 156 250
g5.16xlarge 250.000 125 000
g5.24xlarge 312 500 156 250
g5.48xlarge 625 000 312 500

A medida que llena los volúmenes de almacén de instancias basadas en SSD para la instancia, disminuye el número de IOPS de escritura que se pueden obtener. Esto se debe al trabajo adicional que debe realizar el controlador SSD para encontrar espacio disponible, volver a escribir los datos existentes y borrar el espacio no utilizado para que se pueda volver a escribir. Este proceso de recopilación de elementos no utilizados genera una amplificación de escritura interna en el SSD, expresada como ratio de operaciones de escritura de SSD con respecto a las operaciones de escritura del usuario. Este descenso del rendimiento es aún mayor si las operaciones de escritura no están en múltiplos de 4096 bytes o no están alineadas con un límite de 4096 bytes. Si escribe una cantidad más pequeña de bytes o bytes que no están alineados, el controlador SSD debe leer los datos circundantes y almacenar el resultado en una nueva ubicación. Este patrón genera una amplificación de escritura significativamente mayor, una mayor latencia y se reduce en gran medida el rendimiento de E/S.

Los controladores SSD pueden utilizar varias estrategias para reducir el impacto de la amplificación de escritura. Una de estas estrategias es reservar espacio en el almacén de instancias SSD para que el controlador pueda administrar con más eficiencia el espacio disponible para las operaciones de escritura. Esto se llama aprovisionamiento excesivo. Los volúmenes de almacén de instancias basadas en SSD proporcionados para una instancia no tienen espacio reservado para el aprovisionamiento excesivo. Para reducir la amplificación de escritura, recomendamos dejar un 10% del volumen sin particiones, de modo que el controlador SSD pueda utilizarlo para el aprovisionamiento excesivo. Esto reduce el almacenamiento que se puede utilizar, pero aumenta el rendimiento aunque el disco esté a punto de llegar a su capacidad máxima.

Para los volúmenes de almacén de instancias que admiten TRIM, puede utilizar el comando TRIM para notificar al controlador SSD cuando deje de necesitar los datos que ha escrito. Esto aporta al controlador más espacio libre, lo que puede reducir la amplificación de escritura y aumentar el rendimiento. Para obtener más información, consulte Soporte TRIM del volumen de almacén de instancias .

Notas de la versión

  • Debe lanzar la instancia con una AMI de HVM.

  • Las instancias creadas en el sistema Nitro tienen los siguientes requisitos:

    Las AMI para Windows de AWS actuales cumplen estos requisitos.

  • Las instancias basadas en GPU no pueden obtener acceso a la GPU a menos que estén instalados los controladores de NVIDIA. Para obtener más información, consulte Instalación de controladores NVIDIA en instancias de Windows.

  • Si lanza una instancia "bare metal", arrancará el servidor subyacente, lo que incluye verificar todos los componentes de hardware y de firmware. Esto, a su vez, supone que se tardarán 20 minutos desde el momento en que la instancia entre en estado de ejecución hasta que pase a estar disponible en la red.

  • Para adjuntar o desconectar volúmenes EBS o interfaces de red secundarias de una instancia bare metal, es preciso admitir la conexión en caliente nativa de PCIe.

  • Las instancias "bare metal" usan un dispositivo en serie basado en PCI en vez de un dispositivo en serie basado en puerto de E/S. El kernel de Linux ascendente y las últimas AMI de Amazon Linux son compatibles con este dispositivo. Las instancias "bare metal" también proporcionan una tabla SPCR de ACPI para permitir que el sistema use automáticamente el dispositivo en serie basado en PCI. Las últimas AMI de Windows usan automáticamente el dispositivo en serie basado en PCI.

  • Existe un límite de 100 AFI por región.

  • El número total de instancias que se puede lanzar en una región tiene un límite y existen límites adicionales para algunos tipos de instancia. Para obtener más información, consulte ¿Cuántas instancias puedo ejecutar en Amazon EC2? en las preguntas frecuentes de Amazon EC2.

  • Si lanza una instancia de varias GPU con una AMI de Windows que se creó en una instancia de una sola GPU, Windows no instala automáticamente el controlador de NVIDIA para todas las GPU. Debe autorizar la instalación del controlador para el nuevo hardware de GPU. Puede corregirlo manualmente en el administrador de dispositivos, abriendo la categoría de dispositivos Otros (las GPU inactivas no aparecen en Adaptadores de pantalla). Para cada GPU inactiva, abra el menú contextual (haga clic con el botón derecho), elija Actualizar software de controlador y, a continuación, elija la opción predeterminada Actualización automática.

  • Cuando se usa el Protocolo de escritorio remoto (RDP) de Microsoft, las GPU que utilizan el modelo de controlador WDDM se sustituyen por un controlador de pantalla de escritorio remoto no acelerado. Le recomendamos que utilice una herramienta de acceso remoto diferente para obtener acceso a su GPU, como Teradici Cloud Access Software, NICE Desktop Cloud Visualization (DCV) o VNC. Puede utilizar también una de las AMI de GPU de AWS Marketplace, ya que ofrecen herramientas de acceso remoto que admiten aceleración 3D.