Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Carichi di lavoro
I carichi di lavoro vengono implementati in container, a loro volta implementati in Pods in Kubernetes. Un Pod include uno o più container. In genere, uno o più Pods che forniscono lo stesso servizio vengono implementati in un servizio Kubernetes. Dopo aver implementato più Pods che forniscono lo stesso servizio, è possibile:
-
Visualizzare le informazioni sui carichi di lavoro in esecuzione su ogni cluster utilizzando il AWS Management Console.
-
Aumenta o riduci i Pods pod con Kubernetes Vertical Pod Autoscaler.
-
Aumenta o riduci il numero di Pods necessari per soddisfare la domanda con i Kubernetes Horizontal Pod Autoscaler.
-
Crea un network load balancer esterno (per Pods accessibili a Internet) o interno (per Pods privati) to balance network traffic across Pods. Il load balancer indirizza il traffico al livello 4 del modello OSI.
-
Crea un Bilanciamento del carico di applicazione su Amazon EKS per bilanciare il traffico delle applicazioni tra i Pods. Il load balancer di applicazione indirizza il traffico al livello 7 del modello OSI.
-
Se sei un nuovo utente di Kubernetes, questo argomento aiuta a Implementare un'applicazione di esempio.
-
È possibile limitare gli indirizzi IP assegnabili a un servizio con
externalIPs
.