As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
As CloudWatch métricas a seguir oferecem uma boa visão ElastiCache do desempenho. Na maioria dos casos, recomendamos que você defina CloudWatch alarmes para essas métricas para que você possa tomar medidas corretivas antes que ocorram problemas de desempenho.
Métricas para monitorar
CPUUtilization
Essa é uma métrica em nível de host relatada como uma porcentagem. Para obter mais informações, consulte Métricas em nível de host.
Valkey e Redis OSS
Para tipos de nós menores com 2v CPUs ou menos, use a CPUUtilization
métrica para monitorar sua carga de trabalho.
De modo geral, sugerimos que você defina o limite para 90% da CPU disponível. Como o Valkey e o Redis OSS têm thread único, o valor efetivo do limite deve ser calculado como uma fração da capacidade total do nó. Por exemplo, suponha que você esteja usando um tipo de nó com dois núcleos. Nesse caso, o limite para CPUUtilization seria 90/2 ou 45%.
Você precisará determinar seu próprio limite, com base no número de núcleos no nó de cache que você está usando. Se você exceder esse limite e sua workload principal for proveniente de solicitações de leitura, amplie seu cluster de cache adicionando réplicas de leitura. Se a workload principal é de solicitações de gravação, dependendo da configuração do cluster, recomendamos que você:
-
Clusters do Valkey ou Redis OSS (modo cluster desabilitado): aumente a escala verticalmente usando um tipo de instância com cache maior.
-
Clusters do Valkey ou Redis OSS (modo cluster habilitado): adicione mais fragmentos para distribuir a workload de gravação entre nós primários adicionais.
dica
Em vez de usar a métrica CPUUtilization
de nível de host, os usuários do Valkey e Redis OSS podem usar a métrica EngineCPUUtilization
, que informa a porcentagem de uso no núcleo do mecanismo Valkey ou Redis OSS. Para ver se essa métrica está disponível nos seus nós e obter mais informações, consulte Métricas do Valkey e Redis OSS.
Para tipos de nós maiores com 4v CPUs ou mais, talvez você queira usar a EngineCPUUtilization
métrica, que relata a porcentagem de uso no núcleo do mecanismo Valkey ou Redis OSS. Para ver se essa métrica está disponível nos seus nós e obter mais informações, consulte Métricas do Redis OSS.
Memcached
Como o Memcached é multi-threaded, essa métrica pode atingir até 90%. Se você exceder esse limite, aumente a escala de seu cluster de cache usando um tipo de nó de cache maior ou aumente a escala horizontalmente adicionando mais nós de cache.
Motor CPUUtilization
Para tipos de nós maiores com 4v CPUs ou mais, talvez você queira usar a EngineCPUUtilization
métrica, que relata a porcentagem de uso no núcleo do mecanismo Redis OSS. Para ver se essa métrica está disponível nos seus nós e obter mais informações, consulte Métricas do Valkey e Redis OSS.
Para obter mais informações, consulte a CPUsseção Monitoramento das melhores práticas com o Amazon ElastiCache for Redis OSS usando a Amazon. CloudWatch
SwapUsage (Valkey e Redis OSS)
Esta é uma métrica em nível de host relatada em bytes. Para obter mais informações, consulte Métricas em nível de host.
A FreeableMemory
CloudWatch métrica próxima de 0 (ou seja, abaixo de 100 MB) ou a SwapUsage
métrica maior que a FreeableMemory
métrica indica que um nó está sob pressão de memória. Se isso ocorrer, consulte os seguintes tópicos:
Evictions
Esta é uma métrica do mecanismo de cache. Recomendamos que você determine seu próprio limite de alarme para essa métrica com base nas necessidades do seu aplicativo.
Se você estiver usando o Memcached e exceder o limite escolhido, aumente a escala do seu cluster usando um tipo de nó maior ou aumente a escala horizontalmente adicionando mais nós.
CurrConnections
Esta é uma métrica do mecanismo de cache. Recomendamos que você determine seu próprio limite de alarme para essa métrica com base nas necessidades do seu aplicativo.
Um número crescente de CurrConnectionspode indicar um problema com seu aplicativo; você precisará investigar o comportamento do aplicativo para resolver esse problema.
Para obter mais informações, consulte a seção Conexões em Monitoramento das melhores práticas com o Amazon ElastiCache for Redis OSS usando a Amazon. CloudWatch
Memória (Valkey e Redis OSS)
A memória é um aspecto central do Valkey e do Redis OSS. Compreender a utilização da memória do seu cluster é necessário para evitar a perda de dados e acomodar o crescimento futuro do seu conjunto de dados. Estatísticas sobre a utilização de memória de um nó estão disponíveis na seção de memória do comando INFO
Para obter mais informações, consulte a seção Memória em Monitoramento das melhores práticas com o Amazon ElastiCache for Redis OSS usando a Amazon. CloudWatch
Rede
Um dos fatores determinantes para a capacidade de largura de banda da rede do cluster é o tipo de nó selecionado. Para obter mais informações sobre a capacidade de rede do seu nó, consulte os ElastiCache preços da Amazon
Para obter mais informações, consulte a seção Rede em Monitoramento das melhores práticas com o Amazon ElastiCache for Redis OSS usando a Amazon. CloudWatch
Latência
A medição do tempo de resposta ElastiCache para uma instância do Valkey pode ser abordada de várias maneiras, dependendo do nível de granularidade necessário. Os principais estágios que contribuem para o tempo geral de resposta do lado do servidor ElastiCache para o Valkey são o pré-processamento do comando, a execução do comando e o pós-processamento do comando.
As métricas de latência específicas do comando derivadas do comando Valkey INFO
A latência mede SuccessfulWriteRequestLatency
e SuccessfulReadRequestLatency
mede o tempo total que o motor ElastiCache for Valkey leva para responder a uma solicitação.
nota
Valores SuccessfulWriteRequestLatency
e SuccessfulReadRequestLatency
métricas inflados podem ocorrer ao usar o pipeline Valkey com CLIENT REPLY habilitado no cliente Valkey. O pipelining Valkey é uma técnica para melhorar o desempenho emitindo vários comandos ao mesmo tempo, sem esperar pela resposta de cada comando individual. Para evitar valores inflados, recomendamos configurar seu cliente Valkey para gerar comandos com CLIENT REPLY OFF.
Para obter mais informações, consulte a seção Latência em Monitoramento das melhores práticas com a Amazon ElastiCache usando a Amazon CloudWatch
Replicação
O volume de dados que está sendo replicado é visível através da métrica ReplicationBytes
. Embora essa métrica seja representante da carga de gravação no grupo de replicação, ela não fornece insights sobre a integridade da replicação. Para este efeito, você pode usar a métrica ReplicationLag
.
Para obter mais informações, consulte a seção Replicação em Monitoramento das melhores práticas com o Amazon ElastiCache for Redis OSS usando
Gerenciamento de tráfego (Valkey e Redis OSS)
ElastiCache for Redis OSS gerencia automaticamente o tráfego em relação a um nó quando mais comandos de entrada são enviados para o nó do que os que podem ser processados pelo Valkey ou pelo Redis OSS. Isso é feito para manter a operação e estabilidade ideais do mecanismo.
Quando o tráfego for gerenciado ativamente em um nó, a métrica TrafficManagementActive
emitirá pontos de dados de 1. Isso indica que o nó está subdimensionado para a workload que está sendo fornecida. Se essa métrica permanecer em 1 por longos períodos, avalie o cluster para decidir se é necessário aumentar a escala verticalmente ou horizontalmente.
Para obter mais informações, consulte a métrica TrafficManagementActive
na página Métricas.