ワークロード
ワークロードは、Kubernetes の Pods にデプロイされるコンテナにデプロイされます。Pod には、1 つ以上のコンテナが含まれます。通常、同じサービスを提供する 1 つ以上の Pods が Kubernetes サービスにデプロイされます。同じサービスを提供する複数の Pods をデプロイすると、次の操作を実行できます。
-
AWS Management Consoleを使用して、各クラスターでワークロードに関する情報の表示を実行できます。
-
Kubernetes Vertical Pod Autoscaler を使用して、Pods を垂直方向にスケールアップまたはスケールダウンできます。
-
Kubernetes Horizontal Pod Autoscaler で需要を満たすために必要な Pods の数を水平方向にスケーリングします。
-
Pods 全体でネットワークトラフィックのバランスをとるために、外部 (インターネットアクセス可能な Pods の場合) または内部 (プライベート Pods の場合) の Network Load Balancer を作成します。ロードバランサーは、OSI モデルのレイヤ 4 でトラフィックをルーティングします。
-
Amazon EKS でのアプリケーション負荷分散 を作成して、Pods 間でアプリケーショントラフィックを分散できます。アプリケーションロードバランサーは、OSI モデルのレイヤ 7 でトラフィックをルーティングします。
-
Kubernetes を初めて利用する場合は、こちらのトピック「 サンプルアプリケーションをデプロイする」が役立ちます。
-
externalIPs
を使用して、サービスに割り当てることができる IP アドレスを制限できます。