翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Auto Scaling Valkey クラスターと Redis OSSクラスター
前提条件
ElastiCache Auto Scaling は、以下の制限があります。
-
Valkey 7.2 以降、または Redis 6.0 以降を実行している Valkey または Redis OSS (クラスターモードが有効) OSS クラスター
-
Valkey 7.2 以降または Redis 7.0.7 以降を実行しているデータ階層化 (クラスターモードが有効) OSS クラスター
-
インスタンスサイズ - Large、XLarge、2XLarge
-
インスタンスタイプファミリー – R7g、R6g、R6gd、R5、M7g、M6g、M5、C7gn
-
の Auto Scaling ElastiCache は、Global Datastores、Outposts、または Local Zones で実行されているクラスターではサポートされていません。
Valkey または Redis による ElastiCache Auto Scalingによるキャパシティの自動管理 OSS
ElastiCache Valkey または Redis による自動スケーリングOSSは、 ElastiCache サービスで必要なシャードまたはレプリカを自動的に増減する機能です。 は Application Auto Scaling サービス ElastiCache を活用してこの機能を提供します。詳細については、Application Auto Scaling を参照してください。自動スケーリングを使用するには、割り当てた CloudWatch メトリクスとターゲット値を使用するスケーリングポリシーを定義して適用します。 ElastiCache 自動スケーリングは、ポリシーを使用して、実際のワークロードに応じてインスタンスの数を増減します。
を使用して、事前定義されたメトリクスに基づいてスケーリングポリシー AWS Management Console を適用できます。predefined metric
は列挙型で定義されるため、それをコード内に名前で指定するか、 AWS Management Consoleで使用できます。カスタムのメトリクスは、 AWS Management Consoleを使用した選択には使用できません。または、 AWS CLI または Application Auto Scaling を使用して、事前定義されたメトリクスまたはカスタムメトリクスに基づいてスケーリングポリシーAPIを適用することもできます。
ElastiCache for Valkey と Redis では、次のディメンションのスケーリングOSSがサポートされています。
-
[シャード] — 手動オンラインリシャーディングと同様に、クラスター内のシャードを自動的に追加/削除します。この場合、 ElastiCache自動スケーリングはユーザーに代わってスケーリングをトリガーします。
-
レプリカ – add/remove replicas in the cluster similar to manual Increase/Decrease replica operations. ElastiCache auto scaling for Valkey and Redis OSS adds/removes クラスター内のすべてのシャード間で自動的に均一にレプリカをレプリカします。
ElastiCache for Valkey and Redis では、次のタイプの自動スケーリングポリシーOSSがサポートされています。
-
ターゲット追跡スケーリングポリシー – 特定のメトリクスのターゲット値に基づいて、サービスが実行するシャード/レプリカの数を増減させます。これはサーモスタットが家の温度を維持する方法に似ています。温度を選択すれば、後はサーモスタットがすべてを実行します。
-
アプリケーションのスケジュールされたスケーリング。 – Valkey および Redis OSS の自動スケーリング ElastiCache の場合、サービスが実行するシャード/レプリカの数を日付と時刻に基づいて増減できます。

次の手順は、前の図に示すように ElastiCache 、Valkey および Redis OSS の自動スケーリングプロセスの をまとめたものです。
-
レプリケーショングループの ElastiCache 自動スケーリングポリシーを作成します。
-
ElastiCache 自動スケーリングは、ユーザーに代わって CloudWatch アラームのペアを作成します。各ペアはメトリクスの上限と下限を示します。これらの CloudWatch アラームは、クラスターの実際の使用率が目標使用率から一定期間逸脱したときにトリガーされます。コンソールでアラームを表示できます。
-
設定されたメトリクス値が特定の期間にわたってターゲット使用率を超える (またはターゲットを下回る) と、 は自動スケーリングを呼び出してスケーリングポリシーを評価するアラーム CloudWatch をトリガーします。
-
ElastiCache Auto Scaling は、クラスターの容量を調整するための変更リクエストを発行します。
-
ElastiCache は変更リクエストを処理し、クラスターのシャード/レプリカ容量を動的に増加 (または減少) して、ターゲット使用率に近づけます。
ElastiCache Auto Scaling の仕組みを理解するために、 という名前のクラスターがあるとしますUsersCluster
。の CloudWatch メトリクスをモニタリングすることでUsersCluster
、トラフィックがピーク時にクラスターが必要とする最大シャードと、トラフィックが最低ポイントにある最小シャードを決定します。また、UsersCluster
クラスターのCPU使用率のターゲット値を決定します。 ElastiCache 自動スケーリングは、ターゲット追跡アルゴリズムを使用して、使用率がターゲット値またはその近くにとどまるように、 のプロビジョニングされたシャードUsersCluster
が必要に応じて調整されるようにします。
注記
スケーリングにはかなりの時間がかかる場合があり、シャードのバランスを再調整するために追加のクラスターリソースが必要になります。 ElastiCache Auto Scaling は、実際のワークロードが数分間にわたって上昇 (または低下) し続ける場合にのみリソース設定を変更します。自動スケーリングターゲット追跡アルゴリズムは、長期にわたってターゲット使用率を選択した値の付近に維持しようとします。
IAM Auto Scaling に必要なアクセス許可
ElastiCache Valkey と Redis OSS Auto Scaling の は ElastiCache、、 CloudWatch、および Application Auto Scaling の組み合わせによって可能になりますAPIs。クラスターは で作成および更新され ElastiCache、アラームは で作成され CloudWatch、スケーリングポリシーは Application Auto Scaling で作成されます。クラスターを作成および更新するための標準IAMアクセス許可に加えて、 ElastiCache Auto Scaling 設定にアクセスするIAMユーザーには、動的スケーリングをサポートするサービスに対する適切なアクセス許可が必要です。 IAM ユーザーには、次のポリシー例に示すアクションを使用するアクセス許可が必要です。
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "application-autoscaling:*", "elasticache:DescribeReplicationGroups", "elasticache:ModifyReplicationGroupShardConfiguration", "elasticache:IncreaseReplicaCount", "elasticache:DecreaseReplicaCount", "elasticache:DescribeCacheClusters", "elasticache:DescribeCacheParameters", "cloudwatch:DeleteAlarms", "cloudwatch:DescribeAlarmHistory", "cloudwatch:DescribeAlarms", "cloudwatch:DescribeAlarmsForMetric", "cloudwatch:GetMetricStatistics", "cloudwatch:ListMetrics", "cloudwatch:PutMetricAlarm", "cloudwatch:DisableAlarmActions", "cloudwatch:EnableAlarmActions", "iam:CreateServiceLinkedRole", "sns:CreateTopic", "sns:Subscribe", "sns:Get*", "sns:List*" ], "Resource": "arn:aws:iam::123456789012:role/autoscaling-roles-for-cluster" } ] }
サービスリンクロール
ElastiCache for Valkey および Redis OSS Auto Scaling サービスには、クラスターと CloudWatch アラームを記述するアクセス許可と、ユーザーに代わって ElastiCache ターゲット容量を変更するアクセス許可も必要です。クラスターの自動スケーリングを有効にすると、AWSServiceRoleForApplicationAutoScaling_ElastiCacheRG
という名前のサービスリンクロールが作成されます。このサービスにリンクされたロールは、ポリシーのアラームを記述し、フリートの現在の容量をモニタリングし、フリートの容量を変更する ElastiCache 自動スケーリングアクセス許可を付与します。サービスにリンクされたロールは、 ElastiCache 自動スケーリングのデフォルトロールです。詳細については、「Application Auto Scaling ユーザーガイド」の ElastiCache 「 for Redis OSS Auto Scaling のサービスにリンクされたロール」を参照してください。
Auto Scaling のベストプラクティス
Auto Scaling に登録する前に、以下のことをお勧めします。
-
追跡メトリクスを 1 つだけ使用する – クラスターに CPUまたは データ集約型のワークロードがあるかどうかを特定し、対応する事前定義されたメトリクスを使用してスケーリングポリシーを定義します。
-
エンジンCPU:
ElastiCachePrimaryEngineCPUUtilization
(シャードディメンション) またはElastiCacheReplicaEngineCPUUtilization
(レプリカディメンション) -
データベースの使用状況:
ElastiCacheDatabaseCapacityUsageCountedForEvictPercentage
このスケーリングポリシーは、クラスターで maxmemory-policy が noeviction に設定されている場合に最適です。
クラスターでは、ディメンションごとに複数のポリシーを避けることをお勧めします。Valkey および Redis OSS Auto Scaling ElastiCache の場合、ターゲット追跡ポリシーがスケールアウトできる状態であればスケーラブルターゲットをスケールアウトしますが、すべてのターゲット追跡ポリシー (スケールイン部分が有効) がスケールインできる状態である場合にのみスケールインします。複数のポリシーによって、スケーラブルなターゲットが同時にスケールアウトまたはスケールインするように指示される場合、Auto Scaling は、スケールインとスケールアウトの両方で最大の容量を提供するポリシーに基づいてスケールします。
-
-
ターゲット追跡のカスタマイズされたメトリクス — Target Tracking 用にカスタマイズされたメトリクスを使用する場合は注意が必要です。Auto Scaling は、ポリシー用に選択されたメトリクスの変更に比例してスケールアウトするのに最適です。スケーリングアクションに比例して変更されないメトリクスがポリシーの作成に使用されると、可用性やコストに影響する可能性のあるスケールアウトまたはスケールインアクションが継続する可能性があります。
データ階層化クラスター (r6gd ファミリーのインスタンスタイプ) では、スケーリングにメモリベースのメトリクスを使用しないでください。
-
スケジュールに基づくスケーリング — ワークロードが確定的 (特定の時点で高/低に達する) であることが判明した場合は、スケジュールされたスケーリングを使用し、必要に応じてターゲット容量を設定することをお勧めします。ターゲット追跡は、非決定的なワークロードや、必要なターゲットメトリクスでクラスターを操作する場合に最適です。これにより、より多くのリソースが必要な場合はスケールアウトし、必要な場合はスケールインします。
-
スケールインを無効にする – ターゲット追跡の自動スケーリングは、段階的なincrease/decrease of workloads as spikes/dip in metrics can trigger consecutive scale-out/in振動を持つクラスターに最適です。このような振動を避けるために、スケールインを無効にして開始し、後でいつでも必要に応じて手動でスケールインすることができます。
-
アプリケーションをテストする – 可用性の問題を回避するために、スケーリングポリシーを作成しながら、クラスターMin/Max workloads to determine absolute Min,Max shards/replicasに必要な推定値でアプリケーションをテストすることをお勧めします。Auto Scaling は Max にスケールアウトし、ターゲットに設定された最小しきい値にスケールインできます。
-
ターゲット値の定義 – 4 週間のクラスター使用率の対応する CloudWatch メトリクスを分析して、ターゲット値のしきい値を決定できます。選択する値が不明な場合は、サポートされる最小定義メトリクス値から開始することをお勧めします。
-
AutoScaling ターゲット追跡の は、シャード/レプリカディメンション間でワークロードを均一に分散するクラスターに最適です。不均一な分布を持つと、次のことが可能になります。
-
ワークロード のために必要でない場合のスケーリングspike/dip on a few hot shards/replicas。
-
ホットシャード/レプリカがあるにもかかわらず、全体的な平均ターゲットに近いために必要なときにスケーリングされません。
-
注記
クラスターをスケールアウトすると、 ElastiCache は既存のノード (ランダムに選択) の 1 つにロードされた関数を新しいノード (複数可) に自動的にレプリケートします。クラスターに Valkey または Redis OSS7.0 以降があり、アプリケーションで Functions
に登録したら AutoScaling、次の点に注意してください。
-
Auto Scaling でサポートされる設定には制限があるため、Auto Scaling に登録されているレプリケーショングループの設定を変更しないことをお勧めします。次に例を示します。
-
インスタンスタイプをサポートされていないタイプに手動で変更します。
-
レプリケーショングループをグローバルデータストアに関連付けます。
-
ReservedMemoryPercent
パラメータの変更。 -
ポリシーの作成時に手動で設定されたincreasing/decreasing shards/replicas beyond the Min/Max容量。
-