Reservas de capacidad - Amazon Elastic Compute Cloud

Reservas de capacidad

Las reservas de capacidad le permiten reservar capacidad de cómputo para las instancias de Amazon EC2 en una zona de disponibilidad específica. Existen dos tipos de reservas de capacidad para diferentes casos de uso.

Tipos de reservas de capacidad
  • Reservas de capacidad bajo demanda

  • bloques de capacidad para ML

A continuación, se indican algunos casos de uso frecuentes de las reservas de capacidad bajo demanda:

  • Eventos de escalado: puede crear reservas de capacidad bajo demanda antes de los eventos críticos para la empresa para asegurarse de que pueda escalar cuando lo necesite.

  • Requisitos normativos y recuperación de desastres: utilice reservas de capacidad bajo demanda para cumplir con los requisitos reglamentarios de alta disponibilidad y reserve capacidad en una zona de disponibilidad o región diferente para la recuperación de desastres.

A continuación, se indican algunos casos de uso frecuentes de bloques de capacidad para ML:

  • Entrenamiento y ajuste de modelos de machine learning (ML): obtenga acceso ininterrumpido a las instancias de GPU que reservó para completar el entrenamiento y el ajuste de los modelos de ML.

  • Experimentos y prototipos de ML: ejecute experimentos y cree prototipos que requieran instancias de GPU durante periodos cortos.

Cuándo usar una reserva de capacidad bajo demanda

Utilice las reservas de capacidad bajo demanda si tiene requisitos de capacidad estrictos y ejecuta cargas de trabajo críticas para la empresa que requieren una garantía de capacidad. Con las reservas de capacidad bajo demanda, puede asegurarse de tener siempre acceso a la capacidad de Amazon EC2 que haya reservado durante el tiempo que la necesite.

Cuándo utilizar bloques de capacidad para ML

Use bloques de capacidad para ML cuando necesite asegurarse de tener acceso ininterrumpido a las instancias de GPU durante un periodo de tiempo definido a partir de una fecha futura. bloques de capacidad es un servicio ideal para entrenar y ajustar los modelos de ML, llevar a cabo experimentos cortos y gestionar los aumentos temporales de la demanda de inferencias en el futuro. Con bloques de capacidad, puede asegurarse de tener acceso a los recursos de la GPU en una fecha específica para ejecutar sus cargas de trabajo de ML.