Contribuisci a migliorare questa pagina
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Per contribuire a questa guida per l'utente, scegli il GitHub link Modifica questa pagina nel riquadro destro di ogni pagina.
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Informazioni su come implementare carichi di lavoro e componenti aggiuntivi su Amazon EKS
I carichi di lavoro vengono implementati in container, a loro volta implementati in pod in Kubernetes. Un pod include uno o più container. In genere, uno o più pod che forniscono lo stesso servizio vengono implementati in un servizio Kubernetes. Dopo aver implementato più pod che forniscono lo stesso servizio, puoi:
-
Visualizzare le informazioni sui carichi di lavoro in esecuzione su ogni cluster utilizzando il Console di gestione AWS.
-
Dimensionare verticalmente i pod verso l’alto o verso il basso con Vertical Pod Autoscaler di Kubernetes.
-
Dimensionare orizzontalmente verso l’alto o verso il basso il numero di pod necessari per soddisfare la domanda con Horizontal Pod Autoscaler di Kubernetes.
-
Creare un Network Load Balancer esterno (per i pod accessibili a internet) o interno (per i pod privati) per bilanciare il traffico di rete tra i pod. Il load balancer indirizza il traffico al livello 4 del modello OSI.
-
Creare un Application Load Balancer per bilanciare il traffico delle applicazioni tra i pod. Il load balancer di applicazione indirizza il traffico al livello 7 del modello OSI.
-
Se sei un nuovo utente di Kubernetes, questo argomento aiuta a implementare un’applicazione di esempio.
-
È possibile limitare gli indirizzi IP assegnabili a un servizio con
externalIPs.