Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Utilizzo della configurazione di monitoraggio per monitorare l'operatore Spark Kubernetes e i job Spark
La configurazione di monitoraggio consente di configurare facilmente l'archiviazione dei log dell'applicazione Spark e dei log degli operatori su Amazon S3 o su. Amazon CloudWatch Puoi sceglierne uno o entrambi. In questo modo viene aggiunto un sidecar log Agent ai pod Spark Operator, Driver ed Executor e successivamente inoltra i log di questi componenti ai sink configurati.
Prerequisiti
Prima di configurare il monitoraggio, assicurati di completare le seguenti attività di configurazione:
(Facoltativo) Se in precedenza hai installato una versione precedente dell'operatore Spark, elimina il SparkApplicationScheduledSparkApplication/CRD.
kubectl delete crd scheduledsparkapplications.sparkoperator.k8s.io kubectl delete crd sparkapplications.sparkoperator.k8s.io
Crea un ruolo di operator/job esecuzione in IAM se non ne hai già uno.
Esegui il comando seguente per aggiornare la politica di fiducia del ruolo di operator/job esecuzione che hai appena creato:
aws emr-containers update-role-trust-policy \ --cluster-name
cluster
\ --namespacenamespace
\ --role-nameiam_role_name_for_operator/job_execution_role
Modifica la policy di fiducia dei ruoli IAM del tuo ruolo di operator/job esecuzione nel modo seguente:
{ "Effect": "Allow", "Principal": { "Federated": "${OIDC-provider}" }, "Action": "sts:AssumeRoleWithWebIdentity", "Condition": { "StringLike": { "OIDC_PROVIDER:sub": "system:serviceaccount:${Namespace}:emr-containers-sa-*" } } }
Crea una policy di MonitoringConfiguration in IAM con le seguenti autorizzazioni:
Allega la politica di cui sopra al tuo ruolo di esecuzione operator/job .