Rilascio 5.30.0 di Amazon EMR - Amazon EMR

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Rilascio 5.30.0 di Amazon EMR

Versioni dell'applicazione 5.30.0

In questo rilascio sono supportate le seguenti applicazioni: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin e ZooKeeper.

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:

Informazioni sulla versione dell'applicazione
emr-5.30.0 emr-5.29.0 emr-5.28.1 emr-5.28.0
AWS SDK per Java 1.11.7591,11,6821,11,6591,11,659
Python 2.7, 3.72,7, 3,62.7, 3.62.7, 3.6
Scala 211,122,11,122,11,122,11,12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.10.01.9.11.9.01.9.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.101.4.101.4.10
HCatalog2.3.62.3.62.3.62.3.6
Hadoop2,8,52,8,52,8,52,8,5
Hive2.3.62.3.62.3.62.3.6
Hudi0.5.2-incubating0.5.0-incubating0.5.0-incubating0.5.0-incubating
Hue4.6.04.4.04.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.0.01.0.01.0.0
Livy0.7.00,6,00,6,00,6,0
MXNet1.5.11.5.11.5.11.5.1
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.1.05.1.05.1.0
Phoenix4,14,34,14,34,14,34,14,3
Pig0.17.00.17.00.17.00.17.0
Presto0.2320.2270.2270.227
Spark2.4.52.4.42.4.42.4.4
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.14.01.14.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL) - - - -
Zeppelin0.8.20.8.20.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

Note di rilascio 5.30.0

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 5.30.0. Le modifiche sono relative alla versione 5.29.0.

Data del rilascio iniziale: 13 marzo 2020

Ultimo aggiornamento: 25 giugno 2020

Aggiornamenti
  • Aggiornato alla versione 1.11.759 AWS SDK for Java

  • Amazon SageMaker Spark SDK aggiornato alla versione 1.3.0

  • Aggiornato EMR Record Server alla versione 1.6.0

  • Flink aggiornato alla versione 1.10.0

  • Aggiornato Ganglia alla versione 3.7.2

  • HBase aggiornato alla versione 1.4.13

  • Aggiornato Hudi alla versione 0.5.2-incubating

  • Hue aggiornato alla versione 4.6.0

  • Aggiornato alla versione 1.1.0 JupyterHub

  • Livy aggiornato alla versione 0.7.0-incubating

  • Aggiornato Oozie alla versione 5.2.0

  • Presto aggiornato alla versione 0.232

  • Aggiornato Spark alla versione 2.4.5

  • Connettori e driver aggiornati: connettore Amazon Glue 1.12.0; connettore Amazon Kinesis 3.5.0; connettore EMR DynamoDB 4.14.0

Nuove funzionalità
  • EMR Notebooks: se utilizzato con cluster EMR creati con 5.30.0, i kernel di EMR Notebooks vengono eseguiti sul cluster. Ciò migliora le prestazioni dei notebook e consente di installare e personalizzare i kernel. Puoi anche installare librerie Python sul nodo primario del cluster. Per ulteriori informazioni, consulta l'argomento relativo all'installazione e l'utilizzo di kernel e librerie nella Guida alla gestione di EMR.

  • Dimensionamento gestito: con la versione 5.30.0 e successive di Amazon EMR, puoi abilitare il dimensionamento gestito da EMR per aumentare o diminuire automaticamente il numero di istanze o unità nel cluster in base al carico di lavoro. Amazon EMR valuta continuamente i parametri dei cluster per prendere decisioni di dimensionamento che ottimizzano i cluster in termini di costi e velocità. Per maggiori informazioni, consulta Dimensionamento delle risorse del cluster nella Guida alla gestione di Amazon EMR.

  • Crittografa i file di log archiviati in Amazon S3: con Amazon EMR versione 5.30.0 e successive, puoi crittografare i file di log archiviati in Amazon S3 con una chiave gestita dal cliente. AWS KMS Per ulteriori informazioni, consulta Crittografia dei file di log archiviati in Amazon S3 nella Guida alla gestione di Amazon EMR.

  • Supporto di Amazon Linux 2: nella versione EMR 5.30.0 e successive, EMR utilizza il sistema operativo Amazon Linux 2. Le nuove AMI personalizzate (Amazon Machine Image) devono essere basate sull'AMI Amazon Linux 2. Per ulteriori informazioni, consulta Utilizzo di un AMI personalizzato.

  • Scalabilità automatica Presto con tolleranza: i cluster EMR che usano 5.30.0 possono essere impostati con un periodo di timeout di scalabilità automatica che consente alle attività Presto di terminare l'esecuzione prima che il loro nodo venga disattivato. Per ulteriori informazioni, consulta Utilizzo della scalabilità automatica Presto con disattivazione con tolleranza.

  • Creazione di parchi istanze con nuova opzione di strategia di allocazione: una nuova opzione di strategia di allocazione è disponibile in EMR versione 5.12.1 e successive. Offre un provisioning dei cluster più rapido, un'allocazione di istanze Spot più accurata e una minore interruzione delle istanze Spot. Sono necessari aggiornamenti ai ruoli di servizio EMR non predefiniti. Consulta Configurazione di parchi istanze.

  • Comandi sudo systemctl stop e sudo systemctl start: nella versione EMR 5.30.0 e successive, le quali usano il sistema operativo Amazon Linux 2 OS, EMR utilizza i comandi sudo systemctl stop e sudo systemctl start per riavviare i servizi. Per ulteriori informazioni, consulta Come riavviare un servizio in Amazon EMR?.

Modifiche, miglioramenti e problemi risolti
  • EMR versione 5.30.0 non installa Ganglia per impostazione predefinita. È possibile selezionare esplicitamente Ganglia da installare quando si crea un cluster.

  • Ottimizzazione delle prestazioni di Spark.

  • Ottimizzazione delle prestazioni di Presto.

  • Python 3 è l'impostazione predefinita per Amazon EMR 5.30.0 e versioni successive.

  • Il gruppo di sicurezza gestito predefinito per l'accesso al servizio nelle sottoreti private è stato aggiornato con nuove regole. Se si utilizza un gruppo di sicurezza personalizzato per l'accesso al servizio, è necessario includere le stesse regole del gruppo di sicurezza gestito predefinito. Per ulteriori informazioni, consulta Gruppo di sicurezza gestito da Amazon EMR per l'accesso al servizio (sottoreti private). Se si utilizza un ruolo di servizio personalizzato per Amazon EMR, è necessario concedere l'autorizzazione a ec2:describeSecurityGroups per consentire a EMR di convalidare se i gruppi di sicurezza sono stati creati correttamente. Se si utilizza EMR_DefaultRole, questa autorizzazione è già inclusa nella policy gestita di default.

Problemi noti
  • Riduci il limite "Max open files" (Max. file aperti) sulla versione di AL2 meno recente [corretto nelle versioni più recenti]. Rilasci di Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano sulle versioni precedenti di Amazon Linux 2 (AL2), le quali hanno un'impostazione ulimit inferiore per "Max open files (Max. file aperti)" quando i cluster Amazon EMR vengono creati con l'AMI predefinita. Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione "Max open files" (Max. file aperti). Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'AMI predefinita di Amazon EMR ha un'impostazione ulimit di default di 4096 per "Max open files" (Max. file aperti), che è inferiore al limite di file 65536 nell'ultima AMI di Amazon Linux 2. L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script dell'operazione bootstrap (BA) che regola l'impostazione ulimit durante la creazione del cluster.

    Se utilizzi una versione di Amazon EMR meno recente che non ha la soluzione permanente per questo problema, la seguente soluzione alternativa consente di impostare esplicitamente l'ulimit del controller dell'istanza su un massimo di 65536 file.

    Impostazione di un ulimit esplicito dalla riga di comando
    1. Modifica /etc/systemd/system/instance-controller.service per aggiungere i seguenti parametri alla sezione Servizio.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Riavvia InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Impostazione di un ulimit usando l'operazione di bootstrap (BA)

    È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Dimensionamento gestito

    Le operazioni di dimensionamento gestito su cluster 5.30.0 e 5.30.1 senza Presto installato possono causare errori delle applicazioni o far sì che un gruppo di istanze o un parco istanze uniforme mantenga lo stato ARRESTED, in particolare quando un'operazione di riduzione è seguita rapidamente da un'operazione di aumento.

    Come soluzione alternativa, scegli Presto come applicazione da installare quando crei un cluster con Amazon EMR rilasci 5.30.0 e 5.30.1, anche se il tuo processo non richiede Presto.

  • Problema noto nei cluster con più nodi primari e autenticazione Kerberos

    Se esegui cluster con più nodi primari e autenticazione Kerberos nella versione 5.20.0 di Amazon EMR e successivi, è possibile che si verifichino problemi con le operazioni del cluster, quali la riduzione o l'invio di fasi, dopo che il cluster è rimasto in esecuzione per un certo periodo di tempo. Il periodo di tempo dipende dal periodo di validità del ticket Kerberos definito dall'utente. Il problema di dimensionamento verso il basso influisce sia sulle richieste di scalabilità automatica che sulle richieste esplicite di dimensionamento verso il basso inviate dall'utente. Possono essere influenzate anche le operazioni cluster aggiuntive.

    Soluzione alternativa:

    • Abilita SSH come utente hadoop al primo nodo primario del cluster EMR con più nodi primari.

    • Esegui il comando seguente per rinnovare il ticket Kerberos per l'utente hadoop.

      kinit -kt <keytab_file> <principal>

      In genere, il file keytab si trova in /etc/hadoop.keytab e l'entità principale si presenta nella forma di hadoop/<hostname>@<REALM>.

    Nota

    Questa soluzione alternativa sarà valida per il periodo di tempo in cui il ticket Kerberos è valido. La durata è di 10 ore per impostazione predefinita, ma può essere configurata dalle impostazioni Kerberos. È necessario eseguire nuovamente il comando sopra indicato una volta scaduto il ticket Kerberos.

  • Il motore di database predefinito per Hue 4.6.0 è SQLite, che causa problemi quando si tenta di utilizzare Hue con un database esterno. Per risolvere questo problema, imposta engine nella tua classificazione di configurazione hue-ini su mysql. Questo problema è stato risolto nella versione 5.30.1 di Amazon EMR.

  • Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:

    • Due o più partizioni vengono scansionate dalla stessa tabella.

    • Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio s3://bucket/table/p=a è un prefisso di s3://bucket/table/p=a b.

    • Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere / (U+002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U+0020) che compare tra a e b in s3://bucket/table/p=a b. Tieni presente che esistono altri 14 caratteri non di controllo: !"#$%&‘()*+,-. Per ulteriori informazioni, consulta la sezione UTF-8 encoding table and Unicode characters (Tabella di codifica UTF-8 e caratteri Unicode).

    Per ovviare a questo problema, imposta la configurazione di spark.sql.sources.fastS3PartitionDiscovery.enabled su false nella classificazione di spark-defaults.

Versioni dei componenti 5.30.0

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con emr o aws. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo CommunityVersion-amzn-EmrVersion. EmrVersion inizia da 0. Ad esempio, se un componente della community open source denominato myapp-component con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come 2.2-amzn-2.

Componente Versione Descrizione
aws-sagemaker-spark-sdk1.3.0 SageMaker SDK Amazon Spark
emr-ddb4.14.0Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop.
emr-goodies2.13.0Librerie utili per l'ecosistema Hadoop.
emr-kinesis3.5.0Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop.
emr-notebook-env1.0.0Ambiente Conda per Notebook EMR
emr-s3-dist-cp2.14.0Applicazione di copia distribuita ottimizzata per Amazon S3.
emr-s3-select1.5.0Connettore di EMR S3Select
emrfs2.40.0Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop.
flink-client1.10.0Applicazioni e script client a riga di comando Apache Flink.
ganglia-monitor3.7.2Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia.
ganglia-metadata-collector3.7.2Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia.
ganglia-web3.7.1Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia.
hadoop-client2.8.5-amzn-6Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode2.8.5-amzn-6Servizio a livello di nodo HDFS per lo storage di blocchi.
hadoop-hdfs-library2.8.5-amzn-6Libreria e client di riga di comando HDFS
hadoop-hdfs-namenode2.8.5-amzn-6Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi.
hadoop-hdfs-journalnode2.8.5-amzn-6Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA.
hadoop-httpfs-server2.8.5-amzn-6Endpoint HTTP per le operazioni HDFS.
hadoop-kms-server2.8.5-amzn-6Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider
hadoop-mapred2.8.5-amzn-6MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce
hadoop-yarn-nodemanager2.8.5-amzn-6Servizio YARN per la gestione di container su un singolo nodo.
hadoop-yarn-resourcemanager2.8.5-amzn-6Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite.
hadoop-yarn-timeline-server2.8.5-amzn-6Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN.
hbase-hmaster1.4.13Servizio per un cluster HBase responsabile del coordinamento delle regioni e dell'esecuzione di comandi amministrativi.
hbase-region-server1.4.13Servizio per servire una o più regioni HBase.
hbase-client1.4.13Client di riga di comando HBase.
hbase-rest-server1.4.13Servizio che fornisce un endpoint RESTful HTTP per HBase.
hbase-thrift-server1.4.13Servizio che fornisce un endpoint Thrift a HBase.
hcatalog-client2.3.6-amzn-2Client a riga di comando "hcat" per la manipolazione del server hcatalog.
hcatalog-server2.3.6-amzn-2Servizio che fornisce HCatalog, un livello di gestione di tabelle e storage per le applicazioni distribuite.
hcatalog-webhcat-server2.3.6-amzn-2Endpoint HTTP che fornisce un'interfaccia REST a HCatalog.
hive-client2.3.6-amzn-2Client a riga di comando Hive.
hive-hbase2.3.6-amzn-2Client Hive-hbase.
hive-metastore-server2.3.6-amzn-2Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop.
hive-server22.3.6-amzn-2Servizio per l'accettazione di query Hive come richieste Web.
hudi0.5.2-incubatingFramework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza.
hudi-presto0.5.2-incubatingLibreria bundle per eseguire Presto con Hudi.
hue-server4.6.0Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop
jupyterhub1.1.0Server multi-utente per notebook Jupyter
livy-server0.7.0-incubatingInterfaccia REST per l'interazione con Apache Spark
nginx1.12.1nginx [motore x] è un server proxy inverso e HTTP
mahout-client0.13.0Librerie per Machine Learning.
mxnet1.5.1Una libreria flessibile, scalabile ed efficiente per il deep learning.
mariadb-server5.5.64Server di database MySQL.
nvidia-cuda9.2.88Driver Nvidia e kit di strumenti Cuda
oozie-client5.2.0Client a riga di comando Oozie.
oozie-server5.2.0Servizio per l'accettazione delle richieste di flusso di lavoro Oozie.
opencv3.4.0Open Source Computer Vision Library.
phoenix-library4.14.3-HBase-1.4Le librerie Phoenix per server e client
phoenix-query-server4.14.3-HBase-1.4Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica
presto-coordinator0.232Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker.
presto-worker0.232Servizio per l'esecuzione di parti di una query.
presto-client0.232Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato.
pig-client0.17.0Client a riga di comando Pig.
r3.4.3The R Project for Statistical Computing
ranger-kms-server1.2.0Sistema di gestione delle chiavi Apache Ranger
spark-client2.4.5-amzn-0Client a riga di comando Spark.
spark-history-server2.4.5-amzn-0Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata.
spark-on-yarn2.4.5-amzn-0Motore di esecuzione in memoria per YARN.
spark-yarn-slave2.4.5-amzn-0Librerie Apache Spark necessarie per gli slave YARN.
sqoop-client1.4.7Client a riga di comando Apache Sqoop.
tensorflow1.14.0TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni.
tez-on-yarn0.9.2L'applicazione e le librerie tez YARN.
webserver2.4.25+Server Apache HTTP.
zeppelin-server0.8.2Notebook basato sul Web che consente l'analisi di dati interattiva.
zookeeper-server3.4.14Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo.
zookeeper-client3.4.14ZooKeeper client a riga di comando.

Classificazioni di configurazione 5.30.0

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio hive-site.xml. Per ulteriori informazioni, consulta Configurazione delle applicazioni.

Classificazioni emr-5.30.0
Classificazioni Descrizione

capacity-scheduler

Modifica i valori nel file capacity-scheduler.xml di Hadoop.

container-log4j

Modifica i valori nel file container-log4j.properties di Hadoop YARN.

core-site

Modifica i valori nel file core-site.xml di Hadoop.

emrfs-site

Modifica le impostazioni EMRFS.

flink-conf

Modifica le impostazione flink-conf.yaml.

flink-log4j

Modifica le impostazioni Flink log4j.properties.

flink-log4j-yarn-session

Modifica le impostazioni di Flink log4 j-yarn-session .properties.

flink-log4j-cli

Modifica le impostazioni Flink log4j-cli.properties.

hadoop-env

Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop.

hadoop-log4j

Modifica i valori nel file log4j.properties di Hadoop.

hadoop-ssl-server

Modifica la configurazione server ssl hadoop

hadoop-ssl-client

Modifica la configurazione client ssl hadoop

hbase

Impostazioni Amazon EMR per Apache HBase.

hbase-env

Modifica i valori nell'ambiente HBase.

hbase-log4j

Modifica i valori nel file hbase-log4j.properties di HBase.

hbase-metrics

Modificare valori nel file hadoop-metrics2-hbase.properties di HBase.

hbase-policy

Modifica i valori nel file hbase-policy.xml di HBase.

hbase-site

Modifica i valori nel file hbase-site.xml di HBase.

hdfs-encryption-zones

Configura le zone di crittografia HDFS.

hdfs-site

Modifica i valori nel file hdfs-site.xml di HDFS.

hcatalog-env

Modifica i valori nell'ambiente di HCatalog.

hcatalog-server-jndi

Modifica i valori nel file jndi.properties di HCatalog.

hcatalog-server-proto-hive-site

Modifica i valori nel file .xml di HCatalog. proto-hive-site

hcatalog-webhcat-env

Modifica i valori nell'ambiente di WebHCat HCatalog.

hcatalog-webhcat-log4j2

Modifica i valori nel file log4j2.properties i WebHCat HCatalog.

hcatalog-webhcat-site

Modifica i valori nel file webhcat-site.xml file di HCatalog WebHCat.

hive-beeline-log4j2

Modifica i valori nel file beeline-log4j2.properties di Hive.

hive-parquet-logging

Modifica i valori nel file parquet-logging.properties di Hive.

hive-env

Modifica i valori nell'ambiente Hive.

hive-exec-log4j2

Modifica i valori nel file 4j2.properties di Hive. hive-exec-log

hive-llap-daemon-log4j2

Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log

hive-log4j2

Modifica i valori nel file hive-log4j2.properties di Hive.

hive-site

Modifica i valori nel file hive-site.xml di Hive

hiveserver2-site

Modifica i valori nel file hiveserver2-site.xml di Hive Server2

hue-ini

Modifica i valori nel file ini di Hue

httpfs-env

Modifica i valori nell'ambiente HTTPFS.

httpfs-site

Modifica i valori nel file httpfs-site.xml di Hadoop.

hadoop-kms-acls

Modifica i valori nel file kms-acls.xml di Hadoop.

hadoop-kms-env

Modifica i valori nell'ambiente Hadoop KMS.

hadoop-kms-log4j

Modifica i valori nel file kms-log4j.properties di Hadoop.

hadoop-kms-site

Modifica i valori nel file kms-site.xml di Hadoop.

hudi-env

Modifica i valori nell'ambiente Hudi.

jupyter-notebook-conf

Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook.

jupyter-hub-conf

Cambia i valori nel file jupyterhub_config.py JupyterHubs.

jupyter-s3-conf

Configura la persistenza di S3 del notebook Jupyter.

jupyter-sparkmagic-conf

Modifica i valori nel file config.json di Sparkmagic.

livy-conf

Modifica i valori nel file livy.conf di Livy.

livy-env

Modifica i valori nell'ambiente Livy.

livy-log4j

Modifica le impostazioni Livy log4j.properties.

mapred-env

Modifica i valori nell'ambiente dell' MapReduce applicazione.

mapred-site

Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione.

oozie-env

Modifica i valori nell'ambiente di Oozie.

oozie-log4j

Modifica i valori nel file oozie-log4j.properties di Oozie.

oozie-site

Modifica i valori nel file oozie-site.xml di Oozie.

phoenix-hbase-metrics

Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix.

phoenix-hbase-site

Modifica i valori nel file hbase-site.xml di Phoenix.

phoenix-log4j

Modifica i valori nel file log4j.properties di Phoenix.

phoenix-metrics

Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix.

pig-env

Change values in the Pig environment.

pig-properties

Modifica i valori nel file pig.properties di Pig.

pig-log4j

Modifica i valori nel file log4j.properties di Pig.

presto-log

Modifica i valori nel file log.properties di Presto.

presto-config

Modifica i valori nel file config.properties di Presto.

presto-password-authenticator

Modifica i valori nel file password-authenticator.properties di Presto.

presto-env

Modifica i valori nel file presto-env.sh di Presto.

presto-node

Modifica i valori nel file node.properties di Presto.

presto-connector-blackhole

Modifica i valori nel file blackhole.properties di Presto.

presto-connector-cassandra

Modifica i valori nel file cassandra.properties di Presto.

presto-connector-hive

Modifica i valori nel file hive.properties di Presto.

presto-connector-jmx

Modifica i valori nel file jmx.properties di Presto.

presto-connector-kafka

Modifica i valori nel file kafka.properties di Presto.

presto-connector-localfile

Modifica i valori nel file localfile.properties di Presto.

presto-connector-memory

Modifica i valori nel file memory.properties di Presto.

presto-connector-mongodb

Modifica i valori nel file mongodb.properties di Presto.

presto-connector-mysql

Modifica i valori nel file mysql.properties di Presto.

presto-connector-postgresql

Modifica i valori nel file postgresql.properties di Presto.

presto-connector-raptor

Modifica i valori nel file raptor.properties di Presto.

presto-connector-redis

Modifica i valori nel file redis.properties di Presto.

presto-connector-redshift

Modifica i valori nel file redshift.properties di Presto.

presto-connector-tpch

Modifica i valori nel file tpch.properties di Presto.

presto-connector-tpcds

Modifica i valori nel file tpcds.properties di Presto.

ranger-kms-dbks-site

Modifica i valori nel file dbks-site.xml di Ranger KMS.

ranger-kms-site

Modifica i valori nel ranger-kms-site file.xml di Ranger KMS.

ranger-kms-env

Modifica i valori nell'ambiente Ranger KMS.

ranger-kms-log4j

Modifica i valori nel file kms-log4j.properties di Ranger KMS.

ranger-kms-db-ca

Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS.

recordserver-env

Modifica i valori nell'ambiente EMR. RecordServer

recordserver-conf

Modificare i valori nel file erver.properties RecordServer di EMR.

recordserver-log4j

Modifica i valori nel file log4j.properties RecordServer di EMR.

spark

Impostazioni Amazon EMR per Apache Spark.

spark-defaults

Modifica i valori nel file spark-defaults.conf di Spark.

spark-env

Modifica i valori nell'ambiente Spark.

spark-hive-site

Modifica i valori nel file hive-site.xml di Spark

spark-log4j

Modifica i valori nel file log4j.properties di Spark.

spark-metrics

Modifica i valori nel file metrics.properties di Spark.

sqoop-env

Modifica i valori nell'ambiente di Sqoop.

sqoop-oraoop-site

Modifica i valori nel file oraoop-site.xml di Sqoop. OraOop

sqoop-site

Modifica i valori nel file sqoop-site.xml di Sqoop.

tez-site

Modifica i valori nel file tez-site.xml file di Tez.

yarn-env

Modifica i valori nell'ambiente YARN.

yarn-site

Modifica i valori nel file yarn-site.xml di YARN.

zeppelin-env

Modifica i valori nell'ambiente Zeppelin.

zookeeper-config

Cambia i valori nel ZooKeeper file zoo.cfg.

zookeeper-log4j

Modifica i valori nel file ZooKeeper log4j.properties.