Amazon EMR versione 5.33.1 - Amazon EMR

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Amazon EMR versione 5.33.1

Versioni dell'applicazione 5.33.1

In questa versione sono supportate le seguenti applicazioni: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin, e ZooKeeper.

La tabella seguente elenca le versioni delle applicazioni disponibili in questa versione di Amazon EMR e le versioni delle applicazioni nelle tre EMR versioni precedenti di Amazon (se applicabile).

Per una cronologia completa delle versioni delle applicazioni per ogni versione di AmazonEMR, consulta i seguenti argomenti:

Informazioni sulla versione dell'applicazione
emr-5.33.1 emr-5.33.0 emr-5.32.1 emr-5.32.0
AWS SDKper Java 1.11.9701,11,9701,11,8901,11,890
Python 2.7, 3.72,7, 3,72,7, 3,72,7, 3,7
Scala 2,11,122,11,122,11,122,11,12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.12.11.12.11.11.21.11.2
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.131.4.131.4.13
HCatalog2.3.72.3.72.3.72.3.7
Hadoop210.1210.1210.1210.1
Hive2.3.72.3.72.3.72.3.7
Hudi0.7.0-amzn-10.7.0-amzn-10.6.0-amzn-00.6.0-amzn-0
Hue4.9.04.9.04.8.04.8.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.02.1.02.1.02.1.0
JupyterHub1.2.21.2.21.1.01.1.0
Livy0.7.00.7.00.7.00.7.0
MXNet1.7.01.7.01.7.01.7.0
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.2.05.2.05.2.0
Phoenix4,14,34,14,34,14,34,14,3
Pig0.17.00.17.00.17.00.17.0
Presto0,245,10,245,10,240,10,240,1
Spark2.4.72.4.72.4.72.4.7
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.4.12.4.12.3.12.3.1
Tez0.9.20.9.20.9.20.9.2
Torino (Presto) SQL - - - -
Zeppelin0.9.00.9.00.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

Note di rilascio 5.33.1

Le seguenti note di rilascio includono informazioni per la versione Amazon EMR 5.33.0/5.33.1. Le modifiche sono relative alla versione 5.32.0.

Data del rilascio iniziale: 19 aprile 2021

Ultimo aggiornamento: 9 agosto 2021

Aggiornamenti
  • Connettore Amazon Glue aggiornato alla versione 1.15.0

  • AWS SDK for Java Aggiornato alla versione 1.11.970

  • Aggiornato alla versione 2.46.0 EMRFS

  • Goodies aggiornati alla versione 2.14.0 EMR

  • Record Server aggiornato alla versione 1.9.0 EMR

  • EMRS3 Dist CP aggiornato alla versione 2.18.0

  • Secret Agent aggiornato alla versione 1.8.0 EMR

  • Flink aggiornato alla versione 1.12.1

  • Hadoop aggiornato alla versione 2.10.1-amzn-1

  • Hive aggiornato alla versione 2.3.7-amzn-4

  • Hudi aggiornato alla versione 0.7.0

  • Hue aggiornato alla versione 4.9.0

  • OpenCV aggiornato alla versione 4.5.0

  • Presto aggiornato alla versione 0.245.1-amzn-0

  • R aggiornato alla versione 4.0.2

  • Spark aggiornato alla versione 2.4.7-amzn-1

  • Aggiornato alla versione 2.4.1 TensorFlow

  • Zeppelin aggiornato alla versione 0.9.0

Modifiche, miglioramenti e problemi risolti
  • Questa è una versione per risolvere i problemi di Amazon EMR Scaling quando non riesce a scalare/ridimensionare correttamente un cluster o causa errori delle applicazioni.

  • È stato risolto un problema a causa del quale le richieste di scalabilità non andavano a buon fine per un cluster di grandi dimensioni e altamente utilizzato quando i EMR daemon on-cluster di Amazon eseguivano attività di controllo dello stato del nodo, come la raccolta dello stato e dello stato del YARN nodo. HDFS Ciò accadeva perché i demoni on-cluster non erano in grado di comunicare i dati sullo stato di salute di un nodo ai componenti interni di Amazon. EMR

  • Demoni EMR sul cluster migliorati per tracciare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di scalabilità.

  • SPARK-29683. È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.

  • YARN-9011. È stato risolto un problema a causa del quale si verificavano errori di lavoro a causa di una situazione di emergenza durante la YARN disattivazione quando il cluster tentava di aumentare o ridurre la scalabilità.

  • È stato risolto il problema relativo agli errori di passaggi o processi durante la scalabilità del cluster assicurando che gli stati dei nodi fossero sempre coerenti tra i demoni Amazon EMR on-cluster e/. YARN HDFS

  • È stato risolto un problema a causa del quale le operazioni di cluster come la scalabilità verso il basso e l'invio di passaggi non funzionavano per EMR i cluster Amazon abilitati con l'autenticazione Kerberos. Questo perché il EMR daemon Amazon on-cluster non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro conHDFS/in esecuzione sul nodo primario. YARN

  • Le EMR versioni più recenti di Amazon risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti AL2 di AmazonEMR. EMRLe versioni di Amazon 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive ora includono una correzione permanente con un'impostazione «Max open files» più elevata.

  • Configurazione di un cluster per correggere i problemi di prestazioni di Apache Timeline Server versione 1 e 1.5 YARN

    Le versioni 1 e 1.5 di Apache YARN Timeline Server possono causare problemi di prestazioni con EMR cluster di grandi dimensioni e molto attivi, in particolare conyarn.resourcemanager.system-metrics-publisher.enabled=true, che è l'impostazione predefinita in Amazon. EMR Un YARN Timeline Server v2 open source risolve il problema di prestazioni relativo alla scalabilità del Timeline Server. YARN

    Altre soluzioni alternative per questo problema includono:

    • Configurazione yarn.resourcemanager. system-metrics-publisher.enabled=false in yarn-site.xml.

    • L'abilitazione della correzione per questo problema durante la creazione di un cluster, come descritto di seguito.

    Le seguenti EMR versioni di Amazon contengono una correzione per questo problema di prestazioni del YARN Timeline Server.

    EMR5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

    Per abilitare la correzione su una qualsiasi delle EMR versioni di Amazon sopra specificate, imposta queste proprietà su un JSON file di configurazione che viene passato utilizzando il parametro aws emr create-cluster command:--configurations file://./configurations.json. true Oppure abilita la correzione utilizzando l'interfaccia utente della console di riconfigurazione.

    Esempio del contenuto del file configurations.json:

    [ { "Classification": "yarn-site", "Properties": { "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true", "yarn.resourcemanager.system-metrics-publisher.enabled": "true" }, "Configurations": [] } ]
  • Adesso, il runtime di Spark è più veloce quando si recuperano le posizioni delle partizioni dal metastore Hive per le query di inserimento Spark.

  • Versioni dei componenti aggiornate. Per un elenco delle versioni dei componenti, consulta Informazioni su Amazon EMR Releases in questa guida.

  • Installato il SDK pacchetto AWS Java su ogni nuovo cluster. Si tratta di un singolo jar contenente tutti i servizi SDKs e le relative dipendenze, anziché i vasetti dei singoli componenti. Per ulteriori informazioni, consulta Java SDK Bundled Dependency.

  • Sono stati corretti i problemi di Managed Scaling nelle EMR versioni precedenti di Amazon e sono stati apportati miglioramenti per ridurre significativamente i tassi di errore delle applicazioni.

  • HTTPSora è abilitato per impostazione predefinita per i repository Amazon Linux. Se utilizzi una VPCE policy di Amazon S3 per limitare l'accesso a bucket specifici, devi aggiungere il nuovo bucket Amazon Linux ARN arn:aws:s3:::amazonlinux-2-repos-$region/* alla tua policy (sostituirlo $region con la regione in cui si trova l'endpoint). Per ulteriori informazioni, consulta questo argomento nei forum di discussione. AWS Annuncio: Amazon Linux 2 ora supporta la possibilità di utilizzo HTTPS durante la connessione ai repository di pacchetti.

Nuove funzionalità
  • Amazon EMR supporta Amazon S3 Access Points, una funzionalità di Amazon S3 che consente di gestire facilmente l'accesso ai data lake condivisi. Utilizzando il tuo alias Amazon S3 Access Point, puoi semplificare l'accesso ai dati su larga scala su Amazon. EMR Puoi utilizzare Amazon S3 Access Point con tutte le versioni di Amazon EMR senza costi aggiuntivi in tutte le AWS regioni in cui Amazon EMR è disponibile. Per ulteriori informazioni sugli alias degli Access Point e degli Amazon S3 Access Point, consulta Utilizzo di un alias in stile bucket per il punto di accesso nella Guida per l'utente di Amazon S3.

  • Amazon EMR -5.33 supporta nuovi tipi di EC2 istanze Amazon: c5a, c5ad, c6gn, c6gd, m6gd, d3, d3en, m5zn, r5b, r6gd. Consulta la sezione relativa ai tipi di istanza supportati.

Problemi noti
  • Limite «Numero massimo di AL2 file aperti» inferiore rispetto alle versioni precedenti [corretto nelle versioni più recenti]. EMRLe versioni di Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano sulle versioni precedenti di Linux ofAmazon 2 ()AL2, che hanno un'impostazione ulimit inferiore per «Max open files» quando i cluster Amazon vengono creati con l'impostazione predefinita. EMR AMI EMRLe versioni di Amazon 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione «Max open files» superiore. Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'EMRimpostazione predefinita di Amazon AMI ha un'impostazione ulimit predefinita di 4096 per «Max open files», che è inferiore al limite di 65536 file in Linux 2. latestAmazon AMI L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script bootstrap action (BA) che regola l'impostazione ulimit alla creazione del cluster.

    Se utilizzi una EMR versione precedente di Amazon che non include la correzione permanente per questo problema, la seguente soluzione alternativa ti consente di impostare in modo esplicito il limite del controller di istanza su un massimo di 65536 file.

    Impostazione di un ulimit esplicito dalla riga di comando
    1. Modifica /etc/systemd/system/instance-controller.service per aggiungere i seguenti parametri alla sezione Servizio.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Riavvia InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Impostazione di un ulimit usando l'operazione di bootstrap (BA)

    È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Per i cluster di sottoreti privati Amazon EMR 6.3.0 e 6.2.0, non puoi accedere all'interfaccia utente web di Ganglia. Verrà visualizzato l'errore "access denied (403) (accesso negato (403))". Altri siti WebUIs, come Spark, Hue, Zeppelin, Livy e JupyterHub Tez, funzionano normalmente. Anche l'accesso all'interfaccia utente Web di Ganglia sui cluster della sottorete pubblica funziona normalmente. Per risolvere il problema, riavvia il servizio httpd sul nodo primario con sudo systemctl restart httpd. Questo problema è stato risolto in Amazon EMR 6.4.0.

  • Importante

    EMRi cluster che eseguono Amazon Linux o Amazon Linux 2 Amazon Machine Images (AMIs) utilizzano il comportamento predefinito di Amazon Linux e non scaricano e installano automaticamente aggiornamenti del kernel importanti e critici che richiedono un riavvio. Questo è lo stesso comportamento delle altre EC2 istanze Amazon che eseguono Amazon Linux AMI predefinito. Se nuovi aggiornamenti software di Amazon Linux che richiedono un riavvio (ad esempio kernel e CUDA aggiornamenti) diventano disponibili dopo la disponibilità di una EMR versione di Amazon, le istanze EMR cluster che eseguono l'impostazione predefinita AMI non scaricano e installano automaticamente tali aggiornamenti. NVIDIA Per ottenere gli aggiornamenti del kernel, puoi personalizzare Amazon EMR AMI per utilizzare la versione più recente di Amazon Linux AMI.

  • Il supporto da console per creare una configurazione di sicurezza che specifichi l'opzione di integrazione AWS Ranger non è attualmente supportato nella regione. GovCloud La configurazione della sicurezza può essere eseguita utilizzando. CLI Consulta Creare la configurazione di EMR sicurezza nella Amazon EMR Management Guide.

  • Policy gestite con ambito: per allinearsi alle AWS migliori pratiche, Amazon EMR ha introdotto politiche gestite predefinite con EMR ambito v2 in sostituzione delle politiche che verranno obsolete. Vedi Amazon EMR Managed Policies.

  • Quando usi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 e esegui Spark sulle EMR versioni di Amazon da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:

    • Due o più partizioni vengono scansionate dalla stessa tabella.

    • Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio s3://bucket/table/p=a è un prefisso di s3://bucket/table/p=a b.

    • Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore -8 inferiore al carattere (U+002F). UTF / Ad esempio, rientra in questa categoria il carattere dello spazio (U+0020) che compare tra a e b in s3://bucket/table/p=a b. Tieni presente che esistono altri 14 caratteri non di controllo: !"#$%&‘()*+,-. Per ulteriori informazioni, vedete la tabella di codifica UTF-8 e i caratteri Unicode.

    Per ovviare a questo problema, imposta la configurazione di spark.sql.sources.fastS3PartitionDiscovery.enabled su false nella classificazione di spark-defaults.

Versioni dei componenti 5.33.1

I componenti che Amazon EMR installa con questa versione sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono esclusivi di Amazon EMR e vengono installati per processi e funzionalità di sistema. Questi solitamente iniziano con emr o aws. I pacchetti di applicazioni Big Data nella EMR versione più recente di Amazon sono in genere l'ultima versione disponibile nella community. Rendiamo disponibili le versioni per la community su Amazon EMR il più rapidamente possibile.

Alcuni componenti di Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo CommunityVersion-amzn-EmrVersion. EmrVersion inizia da 0. Ad esempio, se il componente della community open source denominato myapp-component con la versione 2.2 è stato modificato tre volte per essere incluso in diverse EMR versioni di Amazon, la sua versione di rilascio è elencata come2.2-amzn-2.

Componente Versione Descrizione
aws-sagemaker-spark-sdk1.4.1Amazon SageMaker Spark SDK
emr-ddb4.16.0Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop.
emr-goodies2.14.0Librerie utili per l'ecosistema Hadoop.
emr-kinesis3.5.0Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop.
emr-notebook-env1.2.0Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter
emr-s3-dist-cp2.18.0Applicazione di copia distribuita ottimizzata per Amazon S3.
emr-s3-select1.6.0EMRConnettore S3Select
emrfs2.46.0Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop.
flink-client1.12.1Applicazioni e script client a riga di comando Apache Flink.
flink-jobmanager-config1.12.1Gestione delle risorse sui EMR nodi per Apache Flink. JobManager
ganglia-monitor3.7.2Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia.
ganglia-metadata-collector3.7.2Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia.
ganglia-web3.7.1Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia.
hadoop-client2.10.1-amzn-1.1Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode2.10.1-amzn-1.1HDFSservizio a livello di nodo per l'archiviazione dei blocchi.
hadoop-hdfs-library2.10.1-amzn-1.1HDFSclient e libreria da riga di comando
hadoop-hdfs-namenode2.10.1-amzn-1.1HDFSservizio per tracciare i nomi dei file e le posizioni dei blocchi.
hadoop-hdfs-journalnode2.10.1-amzn-1.1HDFSservizio per la gestione del diario del file system Hadoop su cluster HA.
hadoop-httpfs-server2.10.1-amzn-1.1HTTPHDFSendpoint per le operazioni.
hadoop-kms-server2.10.1-amzn-1.1Server di gestione delle chiavi crittografiche basato su Hadoop. KeyProvider API
hadoop-mapred2.10.1-amzn-1.1MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce
hadoop-yarn-nodemanager2.10.1-amzn-1.1YARNservizio per la gestione dei contenitori su un singolo nodo.
hadoop-yarn-resourcemanager2.10.1-amzn-1.1YARNservizio per l'allocazione e la gestione delle risorse del cluster e delle applicazioni distribuite.
hadoop-yarn-timeline-server2.10.1-amzn-1.1Servizio per il recupero di informazioni correnti e storiche per le applicazioni. YARN
hbase-hmaster1.4.13Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi.
hbase-region-server1.4.13Servizio per servire una o più HBase regioni.
hbase-client1.4.13HBaseclient da riga di comando.
hbase-rest-server1.4.13Servizio che fornisce un RESTful HTTP endpoint per. HBase
hbase-thrift-server1.4.13Servizio che fornisce un endpoint Thrift a. HBase
hcatalog-client2.3.7-amzn-4Client a riga di comando "hcat" per la manipolazione del server hcatalog.
hcatalog-server2.3.7-amzn-4Fornitura di serviziHCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite.
hcatalog-webhcat-server2.3.7-amzn-4HTTPendpoint che fornisce un'RESTinterfaccia a. HCatalog
hive-client2.3.7-amzn-4Client a riga di comando Hive.
hive-hbase2.3.7-amzn-4Client Hive-hbase.
hive-metastore-server2.3.7-amzn-4Servizio per l'accesso al metastore Hive, un archivio semantico che archivia i metadati per le operazioni su Hadoop. SQL
hive-server22.3.7-amzn-4Servizio per l'accettazione di query Hive come richieste Web.
hudi0.7.0-amzn-1Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza.
hudi-spark0.7.0-amzn-1Libreria bundle per eseguire Spark con Hudi.
hudi-presto0.7.0-amzn-1Libreria bundle per eseguire Presto con Hudi.
hue-server4.9.0Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop
jupyterhub1.2.2Server multi-utente per notebook Jupyter
livy-server0.7.0-incubatingRESTinterfaccia per interagire con Apache Spark
nginx1.12.1nginx [engine x] è HTTP un server proxy e inverso
mahout-client0.13.0Librerie per Machine Learning.
mxnet1.7.0Una libreria flessibile, scalabile ed efficiente per il deep learning.
mariadb-server5.5.68+Il mio server SQL di database.
nvidia-cuda10.1.243Driver Nvidia e kit di strumenti Cuda
oozie-client5.2.0Client a riga di comando Oozie.
oozie-server5.2.0Servizio per l'accettazione delle richieste di flusso di lavoro Oozie.
opencv4.5.0Open Source Computer Vision Library.
phoenix-library4.14.3- -1,4 HBaseLe librerie Phoenix per server e client
phoenix-query-server4.14.3- -1,4 HBaseUn server leggero che fornisce JDBC l'accesso, i buffer di protocollo e l'accesso ai JSON formati ad Avatica API
presto-coordinator0.245.1-amzn-0Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker.
presto-worker0.245.1-amzn-0Servizio per l'esecuzione di parti di una query.
presto-client0.245.1-amzn-0Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato.
pig-client0.17.0Client a riga di comando Pig.
r4.0.2The R Project for Statistical Computing
ranger-kms-server1.2.0Sistema di gestione delle chiavi Apache Ranger
spark-client2.4.7-amzn-1.1Client a riga di comando Spark.
spark-history-server2.4.7-amzn-1.1Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata.
spark-on-yarn2.4.7-amzn-1.1Motore di esecuzione in memoria per. YARN
spark-yarn-slave2.4.7-amzn-1.1Librerie Apache Spark necessarie agli slave. YARN
sqoop-client1.4.7Client a riga di comando Apache Sqoop.
tensorflow2.4.1TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni.
tez-on-yarn0.9.2L'YARNapplicazione e le librerie tez.
webserver2.4.25+Server ApacheHTTP.
zeppelin-server0.9.0Notebook basato sul Web che consente l'analisi di dati interattiva.
zookeeper-server3.4.14Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo.
zookeeper-client3.4.14ZooKeeper client a riga di comando.

Classificazioni di configurazione 5.33.1

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Questi spesso corrispondono a un XML file di configurazione per l'applicazione, ad esempiohive-site.xml. Per ulteriori informazioni, consulta Configurazione delle applicazioni.

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon avvia EMR solo azioni di riconfigurazione per le classificazioni che modifichi. Per ulteriori informazioni, consulta Riconfigurazione di un gruppo di istanze in un cluster in esecuzione.

Classificazioni emr-5.33.1
Classificazioni Descrizione Operazioni di riconfigurazione

capacity-scheduler

Modifica i valori nel file capacity-scheduler.xml di Hadoop.

Restarts the ResourceManager service.

container-executor

Modifica i valori nel file container-executor.cfg di HadoopYARN.

Not available.

container-log4j

Modifica i valori nel file container-log4j.properties di Hadoop. YARN

Not available.

core-site

Modifica i valori nel file core-site.xml di Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Modifica le impostazioni relative a docker.

Not available.

emrfs-site

EMRFSModificare le impostazioni.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Modifica le impostazione flink-conf.yaml.

Restarts Flink history server.

flink-log4j

Modifica le impostazioni Flink log4j.properties.

Restarts Flink history server.

flink-log4j-session

Modifica le impostazioni Flink log4j-session.properties per la sessione Kubernetes/Yarn.

Not available.

flink-log4j-cli

Modifica le impostazioni Flink log4j-cli.properties.

Restarts Flink history server.

hadoop-env

Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Modifica i valori nel file log4j.properties di Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Modifica la configurazione server ssl hadoop

Not available.

hadoop-ssl-client

Modifica la configurazione client ssl hadoop

Not available.

hbase

Impostazioni EMR curate da Amazon per Apache. HBase

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Modifica i valori nell'ambienteHBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Modifica i valori nel file HBase hbase-log4j.properties.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Cambia i valori nel HBase file hbase-policy.xml.

Not available.

hbase-site

Modifica i valori nel HBase file hbase-site.xml.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Configura le zone di HDFS crittografia.

Should not be reconfigured.

hdfs-site

Modifica i valori in HDFS's hdfs-site.xml.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Cambia i valori nell'HCatalogambiente.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Cambia i valori in HCatalog jndi.properties.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Cambia i valori nel file .xmlHCatalog. proto-hive-site

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Cambia i valori nell'ambiente ebHCat di HCatalog W.

Restarts Hive WebHCat Server.

hcatalog-webhcat-log4j2

Modifica i valori in HCatalog ebHCat log4j2.properties di W.

Restarts Hive WebHCat Server.

hcatalog-webhcat-site

Modifica i valori nel file webhcat-site.xml di HCatalog W. ebHCat

Restarts Hive WebHCat Server.

hive-beeline-log4j2

Modifica i valori nel file beeline-log4j2.properties di Hive.

Not available.

hive-parquet-logging

Modifica i valori nel file parquet-logging.properties di Hive.

Not available.

hive-env

Modifica i valori nell'ambiente Hive.

Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Modifica i valori nel file hive-exec-log 4j2.properties di Hive.

Restarts HiveServer2 and HiveMetastore.

hive-llap-daemon-log4j2

Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log

Not available.

hive-log4j2

Modifica i valori nel file hive-log4j2.properties di Hive.

Not available.

hive-site

Modifica i valori nel file hive-site.xml di Hive

Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Modifica i valori nel file hiveserver2-site.xml di Hive Server2

Not available.

hue-ini

Modifica i valori nel file ini di Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Cambia i valori nell'ambiente. HTTPFS

Restarts Hadoop Httpfs service.

httpfs-site

Modifica i valori nel file httpfs-site.xml di Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Modifica i valori nel file kms-acls.xml di Hadoop.

Not available.

hadoop-kms-env

Modifica i valori nell'ambiente Hadoop. KMS

Restarts Hadoop-KMS service.

hadoop-kms-log4j

Modifica i valori nel file kms-log4j.properties di Hadoop.

Not available.

hadoop-kms-site

Modifica i valori nel file kms-site.xml di Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Modifica i valori nell'ambiente Hudi.

Not available.

jupyter-notebook-conf

Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook.

Not available.

jupyter-hub-conf

Modificare i valori nel JupyterHubs file jupyterhub_config.py.

Not available.

jupyter-s3-conf

Configura la persistenza di S3 del notebook Jupyter.

Not available.

jupyter-sparkmagic-conf

Modifica i valori nel file config.json di Sparkmagic.

Not available.

livy-conf

Modifica i valori nel file livy.conf di Livy.

Restarts Livy Server.

livy-env

Modifica i valori nell'ambiente Livy.

Restarts Livy Server.

livy-log4j

Modifica le impostazioni Livy log4j.properties.

Restarts Livy Server.

mapred-env

Modifica i valori nell'ambiente dell' MapReduce applicazione.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Modifica i valori nell'ambiente di Oozie.

Restarts Oozie.

oozie-log4j

Modifica i valori nel file oozie-log4j.properties di Oozie.

Restarts Oozie.

oozie-site

Modifica i valori nel file oozie-site.xml di Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix.

Not available.

phoenix-hbase-site

Modifica i valori nel file hbase-site.xml di Phoenix.

Not available.

phoenix-log4j

Modifica i valori nel file log4j.properties di Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix.

Not available.

pig-env

Change values in the Pig environment.

Not available.

pig-properties

Modifica i valori nel file pig.properties di Pig.

Restarts Oozie.

pig-log4j

Modifica i valori nel file log4j.properties di Pig.

Not available.

presto-log

Modifica i valori nel file log.properties di Presto.

Restarts Presto-Server.

presto-config

Modifica i valori nel file config.properties di Presto.

Restarts Presto-Server.

presto-password-authenticator

Modifica i valori nel file password-authenticator.properties di Presto.

Not available.

presto-env

Modifica i valori nel file presto-env.sh di Presto.

Restarts Presto-Server.

presto-node

Modifica i valori nel file node.properties di Presto.

Not available.

presto-connector-blackhole

Modifica i valori nel file blackhole.properties di Presto.

Not available.

presto-connector-cassandra

Modifica i valori nel file cassandra.properties di Presto.

Not available.

presto-connector-hive

Modifica i valori nel file hive.properties di Presto.

Restarts Presto-Server.

presto-connector-jmx

Modifica i valori nel file jmx.properties di Presto.

Not available.

presto-connector-kafka

Modifica i valori nel file kafka.properties di Presto.

Not available.

presto-connector-localfile

Modifica i valori nel file localfile.properties di Presto.

Not available.

presto-connector-memory

Modifica i valori nel file memory.properties di Presto.

Not available.

presto-connector-mongodb

Modifica i valori nel file mongodb.properties di Presto.

Not available.

presto-connector-mysql

Modifica i valori nel file mysql.properties di Presto.

Not available.

presto-connector-postgresql

Modifica i valori nel file postgresql.properties di Presto.

Not available.

presto-connector-raptor

Modifica i valori nel file raptor.properties di Presto.

Not available.

presto-connector-redis

Modifica i valori nel file redis.properties di Presto.

Not available.

presto-connector-redshift

Modifica i valori nel file redshift.properties di Presto.

Not available.

presto-connector-tpch

Modifica i valori nel file tpch.properties di Presto.

Not available.

presto-connector-tpcds

Modifica i valori nel file tpcds.properties di Presto.

Not available.

ranger-kms-dbks-site

Modifica i valori nel file dbks-site.xml di Ranger. KMS

Restarts Ranger KMS Server.

ranger-kms-site

Modifica i valori nel ranger-kms-site file.xml di Ranger. KMS

Restarts Ranger KMS Server.

ranger-kms-env

Modifica i valori nell'ambiente RangerKMS.

Restarts Ranger KMS Server.

ranger-kms-log4j

Modifica i valori nel file kms-log4j.properties di Ranger. KMS

Not available.

ranger-kms-db-ca

Modifica i valori per il file CA su S3 per La mia connessione con Ranger. SQL SSL KMS

Not available.

recordserver-env

Modifica i valori nell'ambiente. EMR RecordServer

Restarts EMR record server.

recordserver-conf

Modifica i valori nel file EMR RecordServer erver.properties.

Restarts EMR record server.

recordserver-log4j

Modifica i valori nel file EMR RecordServer log4j.properties.

Restarts EMR record server.

spark

Impostazioni EMR curate da Amazon per Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Modifica i valori nel file spark-defaults.conf di Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Modifica i valori nell'ambiente Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Modifica i valori nel file hive-site.xml di Spark

Not available.

spark-log4j

Modifica i valori nel file log4j.properties di Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Modifica i valori nel file metrics.properties di Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Modifica i valori nell'ambiente di Sqoop.

Not available.

sqoop-oraoop-site

Modifica i valori nel file oraoop-site.xml di Sqoop OraOop.

Not available.

sqoop-site

Modifica i valori nel file sqoop-site.xml di Sqoop.

Not available.

tez-site

Modifica i valori nel file tez-site.xml file di Tez.

Restarts Oozie.

yarn-env

Cambia i valori nell'ambiente. YARN

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Modifica i valori nel YARN file yarn-site.xml.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Modifica i valori nell'ambiente Zeppelin.

Restarts Zeppelin.

zeppelin-site

Modifica le impostazioni di configurazione in zeppelin-site.xml.

Restarts Zeppelin.

zookeeper-config

Modifica i valori nel ZooKeeper file zoo.cfg.

Restarts Zookeeper server.

zookeeper-log4j

Modifica i valori nel file ZooKeeper log4j.properties.

Restarts Zookeeper server.