Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Que métricas devo monitorar?

Modo de foco
Que métricas devo monitorar? - Amazon ElastiCache

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As CloudWatch métricas a seguir oferecem uma boa visão ElastiCache do desempenho. Na maioria dos casos, recomendamos que você defina CloudWatch alarmes para essas métricas para que você possa tomar medidas corretivas antes que ocorram problemas de desempenho.

CPUUtilization

Essa é uma métrica em nível de host relatada como uma porcentagem. Para obter mais informações, consulte Métricas em nível de host.

Valkey e Redis OSS

Para tipos de nós menores com 2v CPUs ou menos, use a CPUUtilization métrica para monitorar sua carga de trabalho.

De modo geral, sugerimos que você defina o limite para 90% da CPU disponível. Como o Valkey e o Redis OSS têm thread único, o valor efetivo do limite deve ser calculado como uma fração da capacidade total do nó. Por exemplo, suponha que você esteja usando um tipo de nó com dois núcleos. Nesse caso, o limite para CPUUtilization seria 90/2 ou 45%.

Você precisará determinar seu próprio limite, com base no número de núcleos no nó de cache que você está usando. Se você exceder esse limite e sua workload principal for proveniente de solicitações de leitura, amplie seu cluster de cache adicionando réplicas de leitura. Se a workload principal é de solicitações de gravação, dependendo da configuração do cluster, recomendamos que você:

  • Clusters do Valkey ou Redis OSS (modo cluster desabilitado): aumente a escala verticalmente usando um tipo de instância com cache maior.

  • Clusters do Valkey ou Redis OSS (modo cluster habilitado): adicione mais fragmentos para distribuir a workload de gravação entre nós primários adicionais.

dica

Em vez de usar a métrica CPUUtilization de nível de host, os usuários do Valkey e Redis OSS podem usar a métrica EngineCPUUtilization, que informa a porcentagem de uso no núcleo do mecanismo Valkey ou Redis OSS. Para ver se essa métrica está disponível nos seus nós e obter mais informações, consulte Métricas do Valkey e Redis OSS.

Para tipos de nós maiores com 4v CPUs ou mais, talvez você queira usar a EngineCPUUtilization métrica, que relata a porcentagem de uso no núcleo do mecanismo Valkey ou Redis OSS. Para ver se essa métrica está disponível nos seus nós e obter mais informações, consulte Métricas do Redis OSS.

Memcached

Como o Memcached é multi-threaded, essa métrica pode atingir até 90%. Se você exceder esse limite, aumente a escala de seu cluster de cache usando um tipo de nó de cache maior ou aumente a escala horizontalmente adicionando mais nós de cache.

Motor CPUUtilization

Para tipos de nós maiores com 4v CPUs ou mais, talvez você queira usar a EngineCPUUtilization métrica, que relata a porcentagem de uso no núcleo do mecanismo Redis OSS. Para ver se essa métrica está disponível nos seus nós e obter mais informações, consulte Métricas do Valkey e Redis OSS.

Para obter mais informações, consulte a CPUsseção Monitoramento das melhores práticas com o Amazon ElastiCache for Redis OSS usando a Amazon. CloudWatch

SwapUsage (Valkey e Redis OSS)

Esta é uma métrica em nível de host relatada em bytes. Para obter mais informações, consulte Métricas em nível de host.

A FreeableMemory CloudWatch métrica próxima de 0 (ou seja, abaixo de 100 MB) ou a SwapUsage métrica maior que a FreeableMemory métrica indica que um nó está sob pressão de memória. Se isso ocorrer, consulte os seguintes tópicos:

Evictions

Esta é uma métrica do mecanismo de cache. Recomendamos que você determine seu próprio limite de alarme para essa métrica com base nas necessidades do seu aplicativo.

Se você estiver usando o Memcached e exceder o limite escolhido, aumente a escala do seu cluster usando um tipo de nó maior ou aumente a escala horizontalmente adicionando mais nós.

CurrConnections

Esta é uma métrica do mecanismo de cache. Recomendamos que você determine seu próprio limite de alarme para essa métrica com base nas necessidades do seu aplicativo.

Um número crescente de CurrConnectionspode indicar um problema com seu aplicativo; você precisará investigar o comportamento do aplicativo para resolver esse problema.

Para obter mais informações, consulte a seção Conexões em Monitoramento das melhores práticas com o Amazon ElastiCache for Redis OSS usando a Amazon. CloudWatch

Memória (Valkey e Redis OSS)

A memória é um aspecto central do Valkey e do Redis OSS. Compreender a utilização da memória do seu cluster é necessário para evitar a perda de dados e acomodar o crescimento futuro do seu conjunto de dados. Estatísticas sobre a utilização de memória de um nó estão disponíveis na seção de memória do comando INFO.

Para obter mais informações, consulte a seção Memória em Monitoramento das melhores práticas com o Amazon ElastiCache for Redis OSS usando a Amazon. CloudWatch

Rede

Um dos fatores determinantes para a capacidade de largura de banda da rede do cluster é o tipo de nó selecionado. Para obter mais informações sobre a capacidade de rede do seu nó, consulte os ElastiCache preços da Amazon.

Para obter mais informações, consulte a seção Rede em Monitoramento das melhores práticas com o Amazon ElastiCache for Redis OSS usando a Amazon. CloudWatch

Latência

A medição do tempo de resposta ElastiCache para uma instância do Valkey pode ser abordada de várias maneiras, dependendo do nível de granularidade necessário. Os principais estágios que contribuem para o tempo geral de resposta do lado do servidor ElastiCache para o Valkey são o pré-processamento do comando, a execução do comando e o pós-processamento do comando.

As métricas de latência específicas do comando derivadas do comando Valkey INFO, como GetTypeCmdsLatency uma SetTypeCmdsLatency métrica, se concentram especificamente na execução da lógica de comando principal do comando Valkey. Essas métricas serão úteis se seu caso de uso for determinar o tempo de execução do comando ou as latências agregadas por estrutura de dados.

A latência mede SuccessfulWriteRequestLatency e SuccessfulReadRequestLatency mede o tempo total que o motor ElastiCache for Valkey leva para responder a uma solicitação.

nota

Valores SuccessfulWriteRequestLatency e SuccessfulReadRequestLatency métricas inflados podem ocorrer ao usar o pipeline Valkey com CLIENT REPLY habilitado no cliente Valkey. O pipelining Valkey é uma técnica para melhorar o desempenho emitindo vários comandos ao mesmo tempo, sem esperar pela resposta de cada comando individual. Para evitar valores inflados, recomendamos configurar seu cliente Valkey para gerar comandos com CLIENT REPLY OFF.

Para obter mais informações, consulte a seção Latência em Monitoramento das melhores práticas com a Amazon ElastiCache usando a Amazon CloudWatch.

Replicação

O volume de dados que está sendo replicado é visível através da métrica ReplicationBytes. Embora essa métrica seja representante da carga de gravação no grupo de replicação, ela não fornece insights sobre a integridade da replicação. Para este efeito, você pode usar a métrica ReplicationLag.

Para obter mais informações, consulte a seção Replicação em Monitoramento das melhores práticas com o Amazon ElastiCache for Redis OSS usando a Amazon. CloudWatch

Gerenciamento de tráfego (Valkey e Redis OSS)

ElastiCache for Redis OSS gerencia automaticamente o tráfego em relação a um nó quando mais comandos de entrada são enviados para o nó do que os que podem ser processados pelo Valkey ou pelo Redis OSS. Isso é feito para manter a operação e estabilidade ideais do mecanismo.

Quando o tráfego for gerenciado ativamente em um nó, a métrica TrafficManagementActive emitirá pontos de dados de 1. Isso indica que o nó está subdimensionado para a workload que está sendo fornecida. Se essa métrica permanecer em 1 por longos períodos, avalie o cluster para decidir se é necessário aumentar a escala verticalmente ou horizontalmente.

Para obter mais informações, consulte a métrica TrafficManagementActive na página Métricas.

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.