Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Políticas de escalado de seguimiento de destino para Amazon EC2 Auto Scaling
Para crear una política de escalado de seguimiento de objetivos, debe especificar unaCloudWatch métrica de Amazon y un valor objetivo que represente el nivel de uso o rendimiento promedio ideal para su aplicación. Amazon EC2 Auto Scaling puede escalar horizontalmente el grupo (agregar más instancias) para hacer frente a la alta demanda en las horas punta, y reducir horizontalmente el grupo (poner en marcha menos instancias) para reducir los costos durante los periodos de baja utilización o rendimiento.
Por ejemplo, supongamos que tiene una aplicación web que actualmente se pone en marcha en dos instancias y desea que la utilización de CPU del grupo de escalado automático permanezca en torno al 50 % cuando cambie la carga en la aplicación. De este modo dispone de capacidad adicional para gestionar picos de tráfico sin mantener una cantidad excesiva de recursos inactivos.
Puede satisfacer esta necesidad mediante la creación de una política de escalado de seguimiento de destino que tenga como destino una utilización media de CPU del 50 por ciento. A continuación, el grupo de escalado automático escala el número de instancias para mantener el valor real de la métrica en o cerca del 50 por ciento.
Temas
- Políticas de escalado de seguimiento de destino
- Consideraciones
- Elección de métricas
- Definición del valor de destino
- Definición del tiempo de preparación de la instancia
- Creación de una política de escalado de seguimiento de destino (consola)
- Creación de una política de escalado de seguimiento de destino (AWS CLI)
- Creación de una política de escalado de seguimiento de destino para Amazon EC2 Auto Scaling con la calculadora de métricas
Políticas de escalado de seguimiento de destino
Puede tener varias políticas de escalado de seguimiento de destino juntas que le ayuden a optimizar su rendimiento, siempre que cada una de ellas use una métrica diferente. Por ejemplo, la utilización y el rendimiento pueden influir mutuamente. Cada vez que una de estas métricas cambia, normalmente implica que otras métricas también se verán afectadas. Por lo tanto, el uso de varias métricas proporciona información adicional sobre la carga a la que se encuentra el grupo de escalado automático y mejora la toma de decisiones a la hora de determinar cuánta capacidad añadir al grupo.
La intención de Amazon EC2 Auto Scaling siempre es dar prioridad a la disponibilidad, por lo que su comportamiento varía en función de si las políticas de seguimiento de destino están listas para el escalado o la reducción horizontales. Escalará horizontalmente el grupo de escalado automático si cualquiera de las políticas de seguimiento de destino está lista para el escalado horizontal, pero solo lo reducirá horizontalmente si todas las políticas de seguimiento de destino (que tienen habilitada la parte de reducción horizontal) están listas para la reducción horizontal.
Consideraciones
Las siguientes consideraciones se aplican al trabajar con las políticas de escalado de seguimiento de destino:
-
No cree, modifique ni elimine lasCloudWatch alarmas que se usan con la política de escalado de seguimiento de destino. Amazon EC2 Auto Scaling crea y administra lasCloudWatch alarmas asociadas a las políticas de escalado de seguimiento de destino y se eliminan automáticamente cuando ya no se necesitan.
-
Una política de escalado de seguimiento de objetivos prioriza la disponibilidad durante los períodos de niveles de tráfico fluctuantes al reducir horizontalmente de forma más gradual cuando el tráfico disminuye. Si desea que su grupo de escalado automático se reduzca horizontalmente inmediatamente cuando finalice una carga de trabajo, puede desactivar la parte de reducir horizontalmente de la política. Esto le proporciona la flexibilidad para usar el método de reducción horizontal que mejor satisfagan sus necesidades cuando la utilización sea baja. Para garantizar que la reducción horizontal se realice lo más rápido posible, recomendamos no utilizar una política de escalado simple para evitar que se agregue un periodo de recuperación.
-
Si faltan puntos de datos en la métrica, esto genera que el estado de alarma de CloudWatch cambie a
INSUFFICIENT_DATA
. Cuando esto ocurre, Amazon EC2 Auto Scaling no puede escalar su grupo hasta que se encuentren nuevos puntos de datos. -
Es posible que haya diferencias entre el valor objetivo y los puntos de datos de la métrica real. Esto se debe a que actuamos de forma conservadora redondeando hacia arriba o hacia abajo a la hora de determinar el número de instancias que se deben agregar o quitar. Esto impide que agreguemos un número insuficiente de instancias o eliminemos demasiadas. Sin embargo, en el caso de los grupos de Auto Scaling que son más pequeños y tienen menos instancias, la utilización del grupo puede parecer que está muy lejos del valor de destino. Por ejemplo, supongamos se establece un valor de destino del 50 por ciento de utilización de la CPU y el grupo de escalado automático lo supera. Es posible determinar que la adición de 1,5 instancias disminuirá la utilización de la CPU hasta aproximadamente el 50 por ciento. Como no es posible agregar 1,5 instancias, redondeamos hacia arriba y añadimos dos instancias. Esto podría reducir la utilización de la CPU a un valor inferior al 50 por ciento, pero garantizaría que la aplicación cuenta con los recursos suficientes. Del mismo modo, si determinamos que, en caso de que se eliminen 1,5 instancias, la utilización de la CPU podría aumentar por encima del 50 por ciento, eliminamos una sola instancia.
-
En el caso de grupos de Auto Scaling más grandes con más instancias, la utilización se distribuye entre un número de instancias mayor, en cuyo caso, si se agregan o quitan instancias, la diferencia entre el valor de destino y los puntos de datos de la métrica real es menor.
-
En las políticas de escalado de seguimiento de destino, se presupone que el grupo de escalado automático debe escalarse horizontalmente cuando la métrica especificada está por encima del valor de destino. Las políticas de escalado de seguimiento de destino no pueden utilizarse para escalar horizontalmente el grupo de escalado automático si la métrica está por debajo del valor de destino.
Elección de métricas
Puede crear políticas de escalado de seguimiento de destino con métricas predefinidas o personalizadas.
Al crear una política de escalado de seguimiento de destino con un tipo de métrica predefinida, debe elegir una métrica de la siguiente lista de métricas predefinidas:
-
ASGAverageCPUUtilization
: promedio de utilización de la CPU del grupo de escalado automático. -
ASGAverageNetworkIn
: número promedio de bytes recibidos por una sola instancia en todas las interfaces de red. -
ASGAverageNetworkOut
: número promedio de bytes enviados de una sola instancia en todas las interfaces de red. -
ALBRequestCountPerTarget
: recuento de solicitudes del equilibrador de carga de aplicación por destino.
importante
Encontrará más información valiosa sobre las métricas de uso de la CPU, la E/S de la red y el recuento de solicitudes del Application Load Balancer por objetivo en el tema ListarCloudWatch las métricas disponibles para sus instancias en la Guía del usuario de Amazon EC2 para instancias de Linux y las CloudWatchmétricas del tema del Application Load Balancer en la Guía del usuario para balanceadores de carga de aplicaciones, respectivamente.
Puede elegir otrasCloudWatch métricas disponibles o sus propias métricasCloudWatch especificando una métrica personalizada. Debe utilizar la AWS CLI o un SDK para crear una política de seguimiento de destino con una métrica personalizada.
Tenga en cuenta las siguientes consideraciones al elegir una métrica:
-
Le recomendamos que utilice únicamente las métricas que estén disponibles en intervalos de un minuto para ayudarle a escalar más rápido en respuesta a los cambios de uso. El seguimiento de objetivos evaluará las métricas agregadas con una granularidad de un minuto para todas las métricas predefinidas y personalizadas, pero es posible que la métrica subyacente publique datos con menos frecuencia. Por ejemplo, todas las métricas de Amazon EC2 se envían en intervalos de cinco minutos de forma predeterminada, pero se pueden configurar en un minuto (lo que se conoce como monitorización detallada). Esta elección depende de los servicios individuales. La mayoría trata de utilizar el intervalo más pequeño posible. Para obtener información sobre la habilitación de la supervisión detallada, consulteConfiguración de la supervisión para instancias de Auto Scaling.
-
No todas las métricas personalizadas de funcionan para el seguimiento de destino. La métrica debe ser una métrica de utilización válida y describir el nivel de actividad de una instancia. El valor de la métrica debe aumentar o disminuir proporcionalmente al número de instancias del grupo de escalado automático. De esta forma, los datos de las métricas se pueden utilizar para ampliar o reducir proporcionalmente el número de instancias. Por ejemplo, la utilización de la CPU de un grupo de escalado automático (es decir, la métrica
CPUUtilization
de Amazon EC2 con la dimensión de métricaAutoScalingGroupName
) funciona si la carga del grupo de escalado automático se distribuye entre las instancias. -
Las siguientes métricas no sirven para hacer un seguimiento de destino:
-
El número de solicitudes recibidas por el balanceador de carga frente al grupo de escalado automático (es decir, la métrica Elastic Load Balancing de
RequestCount
). El número de solicitudes recibidas por el balanceador de carga no cambia en función de la utilización del grupo de escalado automático. -
La latencia de las solicitudes del balanceador de carga (es decir, la métrica
Latency
de Elastic Load Balancing). La latencia de las solicitudes puede aumentar si lo hace la utilización, pero el cambio no tiene que ser necesariamente proporcional. -
La métrica de colas deCloudWatch Amazon SQS
ApproximateNumberOfMessagesVisible
. El número de mensajes de una cola no tiene por qué cambiar en proporción al tamaño del grupo de escalado automático que procesa los mensajes de la cola. Sin embargo, puede que funcione una métrica personalizada que mida el número de mensajes de la cola por instancia de EC2 en el grupo de escalado automático. Para obtener más información, consulte Escalado basado en Amazon SQS.
-
-
Para utilizar la métrica
ALBRequestCountPerTarget
, debe especificar el parámetroResourceLabel
para identificar el grupo de destino del balanceador de carga asociado a la métrica. -
Cuando una métrica emite valores 0 reales aCloudWatch (por ejemplo,
ALBRequestCountPerTarget
), un grupo de Auto Scaling puede reducir horizontalmente a 0 cuando no haya tráfico a la aplicación. Para que el grupo de escalado automático se reduzca horizontalmente a 0 cuando no se envíen solicitudes, la capacidad mínima del grupo debe ser de 0. -
Al crear una política de escalado de seguimiento de destino con una métrica personalizada, puede utilizar métricas matemáticas para combinar métricas. Para obtener más información, consulte Creación de una política de escalado de seguimiento de destino para Amazon EC2 Auto Scaling con la calculadora de métricas.
Definición del valor de destino
Al crear una política de escalado de seguimiento de destino, debe especificar un valor de destino. El valor objetivo representa la utilización o el rendimiento promedio óptimo para el grupo de escalado automático. Para usar los recursos de manera rentable, establezca el valor objetivo lo más alto posible con un búfer razonable para aumentos inesperados de tráfico. Cuando la aplicación se escala horizontalmente de manera óptima para un flujo de tráfico normal, el valor de la métrica real debe ser igual al valor de destino, o estar justo por debajo de él.
Cuando una política de escalado se basa en el rendimiento, como el recuento de solicitudes por objetivo para un equilibrador de carga de aplicación, E/S de red u otras métricas de recuento, el valor objetivo representa el rendimiento promedio óptimo de una sola instancia, para un periodo de un minuto.
Definición del tiempo de preparación de la instancia
importante
Le recomendamos que utilice la opción predeterminada de preparación de la instancia, que unifica toda la configuración de preparación y recuperación para el grupo de escalado automático. Para obtener más información, consulte Opciones de configuración disponibles de preparación y recuperación.
Puede especificar el número de segundos que se tarda en preparar una instancia recién lanzada. Hasta que finaliza el tiempo de preparación especificado, la instancia no se tiene en cuenta para las métricas agregadas de la instancia EC2 del grupo de escalado automático.
Mientras las instancias se encuentran en el periodo de preparación, las políticas de escalado solo escalan horizontalmente si el valor de la métrica de las instancias que no están en preparación es mayor que la utilización objetivo de la política.
Si el grupo se vuelve a escalar horizontalmente, las instancias que aún estén en preparación se considerarán parte de la capacidad deseada para la siguiente actividad de escalado horizontal. La intención es realizar continuamente (pero no excesivamente) un escalado ascendente.
Mientras la actividad de escalado horizontal está en curso, todas las actividades de reducción horizontal iniciadas por las políticas de escalado se bloquean hasta que las instancias terminen de prepararse.
Creación de una política de escalado de seguimiento de destino (consola)
Puede elegir configurar una política de escalado de seguimiento de destino en un grupo de escalado automático al crearlo o después de crear el grupo de escalado automático.
Antes de empezar, confirme que su métrica preferida esté disponible en intervalos de 1 minuto (en comparación con el intervalo predeterminado de 5 minutos de las métricas de Amazon EC2).
Para crear un grupo de escalado automático con una política de escalado de seguimiento de destino
Abra la consola de Amazon EC2 en https://console.aws.amazon.com/ec2/
y elija Auto Scaling Groups (Grupos de escalado automático) en el panel de navegación. -
Elija Create Auto Scaling group (Crear grupo de escalado automático).
-
En los pasos 1, 2 y 3, elija las opciones que desee y continúe en el Paso 4: Configurar el tamaño del grupo y las políticas de escalado.
-
En Group size (Tamaño del grupo), especifique el rango entre el que desea escalar actualizando la capacidad mínima y la máxima. Estas dos configuraciones permiten escalar dinámicamente el grupo de escalado automático. Amazon EC2 Auto Scaling escala el grupo en el rango de valores especificado por la capacidad mínima y la máxima.
-
En Scaling policies (Políticas de escalado), elija Target tracking scaling policy (Política de escalado de seguimiento de destino).
-
Para definir una política, haga lo siguiente:
-
Especifique un nombre para la política.
-
En Tipo de métrica, elija una métrica.
Si eligió Application Load Balancer request count per target (Recuento de solicitudes de Application Load Balancer por destino), elija un grupo de destino en Target group (Grupo de destino).
-
Especifique un valor de destino para la métrica en Target value.
-
(Opcional) Para Instances need (Instancias necesarias), actualice el valor de preparación de la instancia según sea necesario.
-
(Opcional) Seleccione Deshabilitar la reducción horizontal para crear solo una política de escalado horizontal. De este modo, si lo desea, puede crear por separado una política de reducción horizontal de otro tipo.
-
-
Proceda a crear el grupo de escalado automático. La política de escalado se creará después de que se haya creado el grupo de escalado automático.
Para crear una política de escalado de seguimiento de destino para un grupo de escalado automático existente
Abra la consola de Amazon EC2 en https://console.aws.amazon.com/ec2/
y elija Auto Scaling Groups (Grupos de escalado automático) en el panel de navegación. -
Seleccione la casilla situada junto al grupo de escalado automático.
Se abre un panel dividido en la parte inferior de la página Auto Scaling groups (Grupos de Auto Scaling).
-
Verifique que las capacidades mínima y máxima estén establecidas correctamente. Por ejemplo, si el grupo ya tiene el tamaño máximo, especifique un nuevo valor máximo de escalado ascendente. Amazon EC2 Auto Scaling no escala el grupo por debajo de la capacidad mínima ni por encima de la capacidad máxima. Para actualizar el grupo, en la pestaña Details (Detalles), cambie la configuración actual para la capacidad mínima y máxima.
-
En la pestaña Automatic scaling (Escalado automático), en Dynamic scaling policies (Políticas de escalado dinámico), elija Create dynamic scaling policy (Crear política de escalado dinámico).
-
Para definir una política, haga lo siguiente:
-
En Policy type (Tipo de política), deje el valor predeterminado de Target tracking scaling (Escalado de seguimiento de destino).
-
Especifique un nombre para la política.
-
En Tipo de métrica, elija una métrica. Solo puede elegir un tipo de métrica. Para utilizar más de una métrica, cree varias políticas.
Si eligió Application Load Balancer request count per target (Recuento de solicitudes de Application Load Balancer por destino), elija un grupo de destino en Target group (Grupo de destino).
-
Especifique un valor de destino para la métrica en Target value.
-
(Opcional) Para Instances need (Instancias necesarias), actualice el valor de preparación de la instancia según sea necesario.
-
(Opcional) Seleccione Deshabilitar la reducción horizontal para crear solo una política de escalado horizontal. De este modo, si lo desea, puede crear por separado una política de reducción horizontal de otro tipo.
-
-
Seleccione Create (Crear).
Creación de una política de escalado de seguimiento de destino (AWS CLI)
Utilice la AWS CLI tal y como se indica a continuación para configurar políticas de escalado de seguimiento de destino para el grupo de escalado automático.
Tareas
Paso 1: Crear un grupo de escalado automático
Utilice el create-auto-scaling-groupcomando para crear un grupo de Auto Scalingmy-asg
con el nombre de la plantilla de lanzamientomy-template
. Si no tiene una plantilla de lanzamiento, consulte Ejemplos de AWS CLI para trabajar con plantillas de lanzamiento.
aws autoscaling create-auto-scaling-group --auto-scaling-group-name
my-asg
\ --launch-template LaunchTemplateName=my-template
,Version='2
' \ --vpc-zone-identifier "subnet-5ea0c127,subnet-6194ea3b,subnet-c934b782
" \ --max-size5
--min-size1
Paso 2: Crear una política de escalado de seguimiento de destino
Tras haber creado el grupo de escalado automático, puede crear una política de escalado de seguimiento de destino que indique a Amazon EC2 Auto Scaling que aumente y reduzca el número de instancias EC2 en ejecución en el grupo de manera dinámica cuando cambie la carga de la aplicación.
Ejemplo: archivo de configuración de seguimiento de destino
A continuación, se incluye un ejemplo de configuración de seguimiento de destino que mantiene la utilización media de la CPU en un 40 por ciento. Guarde esta configuración en un archivo llamado config.json
.
{ "TargetValue": 40.0, "PredefinedMetricSpecification": { "PredefinedMetricType": "ASGAverageCPUUtilization" } }
Para obtener más información, consulte PredefinedMetricSpecificationla Referencia de la API de Amazon EC2 Auto Scaling.
También puede usar una métrica personalizada para el escalado mediante la creación de una especificación de métrica personalizada y la adición de valores para cada parámetro desde CloudWatch. A continuación, se muestra un ejemplo de configuración de seguimiento de destino que mantiene la utilización media de la métrica especificada en un 40 por ciento.
{ "TargetValue":40.0, "CustomizedMetricSpecification":{ "MetricName":"MyUtilizationMetric", "Namespace":"MyNamespace", "Dimensions":[ { "Name":"MyOptionalMetricDimensionName", "Value":"MyOptionalMetricDimensionValue" } ], "Statistic":"Average", "Unit":"Percent" } }
Para obtener más información, consulte CustomizedMetricSpecificationla Referencia de la API de Amazon EC2 Auto Scaling.
Ejemplo: cpu40-target-tracking-scaling-policy
Utilice el put-scaling-policycomando junto con elconfig.json
archivo que creó anteriormente para crear una política de escalado llamadacpu40-target-tracking-scaling-policy
que mantenga la utilización media de la CPU del grupo de Auto Scaling en el 40 por ciento.
aws autoscaling put-scaling-policy --policy-name
cpu40-target-tracking-scaling-policy
\ --auto-scaling-group-namemy-asg
--policy-type TargetTrackingScaling \ --target-tracking-configurationfile://config.json
Si tiene éxito, este comando devuelve los ARN y los nombres de las dos alarmas de CloudWatch creadas en su nombre.
{
"PolicyARN": "arn:aws:autoscaling:region:account-id:scalingPolicy:228f02c2-c665-4bfd-aaac-8b04080bea3c:autoScalingGroupName/my-asg:policyName/cpu40-target-tracking-scaling-policy",
"Alarms": [
{
"AlarmARN": "arn:aws:cloudwatch:region:account-id:alarm:TargetTracking-my-asg-AlarmHigh-fc0e4183-23ac-497e-9992-691c9980c38e",
"AlarmName": "TargetTracking-my-asg-AlarmHigh-fc0e4183-23ac-497e-9992-691c9980c38e"
},
{
"AlarmARN": "arn:aws:cloudwatch:region:account-id:alarm:TargetTracking-my-asg-AlarmLow-61a39305-ed0c-47af-bd9e-471a352ee1a2",
"AlarmName": "TargetTracking-my-asg-AlarmLow-61a39305-ed0c-47af-bd9e-471a352ee1a2"
}
]
}