Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Rilascio 6.5.0 di Amazon EMR
Versioni dell'applicazione 6.5.0
In questa versione sono supportate le seguenti applicazioni: Flink
La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).
Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | |
---|---|---|---|---|
AWS SDK per Java | 1.12.31 | 1,12,31 | 1,11,977 | 1,11,977 |
Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 |
Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.4.4 | 2.4.4 | 2.2.6 | 2.2.6 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 |
Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 |
Iceberg | 0.12.0 | - | - | - |
JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |
JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 |
Livy | 0.7.1 | 0.7.1 | 0.7.0 | 0.7.0 |
MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 |
Phoenix | 5.1.2 | 5.1.2 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0,261 | 0,254,1 | 0,245,1 | 0,245,1 |
Spark | 3.1.2 | 3.1.2 | 3.1.1 | 3.1.1 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | 360 | 359 | 350 | 350 |
Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3,5,7 | 3,5,7 | 3.4.14 | 3.4.14 |
Note di rilascio 6.5.0
Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.5.0. Le modifiche sono relative alla versione 6.4.0.
Data del rilascio iniziale: 20 gennaio 2022
Data di rilascio aggiornata: 21 marzo 2022
Nuove caratteristiche
-
[Dimensionamento] Ottimizzazione del dimensionamento gestito dei dati di shuffle di Spark - Per Amazon EMR versioni 5.34.0 e successive e EMR 6.4.0 e successive, il dimensionamento gestito è ora consapevole dei dati di shuffle di Spark (dati che Spark ridistribuisce tra le partizioni per eseguire operazioni specifiche). Per ulteriori informazioni sulle operazioni di shuffle, consulta Utilizzo del dimensionamento gestito da EMR in Amazon EMR nella Guida alla gestione di Amazon EMR e Guida di programmazione Spark
. A partire da Amazon EMR 5.32.0 e 6.5.0, il ridimensionamento dell'executor dinamico per Apache Spark è abilitato di default. Per attivare o disattivare questa caratteristica, è possibile utilizzare il
spark.yarn.heterogeneousExecutors.enabled
parametro di configurazione.Supporto per il formato di tabella aperta Apache Iceberg per enormi set di dati analitici.
Supporto per ranger-trino-plugin 2.0.1-amzn-1
Supporto per toree 0.5.0
Modifiche, miglioramenti e problemi risolti
La versione del rilascio 6.5 di Amazon EMR ora supporta Apache Iceberg 0.12.0 e offre miglioramenti al tempo di esecuzione con runtime di Amazon EMR per Apache Spark, Amazon EMR Runtime per Presto e Amazon EMR Runtime per Apache Hive.
Apache Iceberg
è un formato di tabella aperta per set di dati di grandi dimensioni in Amazon S3 e fornisce prestazioni di query rapide su tabelle di grandi dimensioni, commit atomici, scritture simultanee ed evoluzione delle tabelle compatibili con SQL. Con EMR 6.5, è possibile utilizzare Apache Spark 3.1.2 con il formato tabella Iceberg. Apache Hudi 0.9 aggiunge il supporto Spark SQL DDL e DML. Ciò consente di creare e modificare le tabelle Hudi usando solo istruzioni SQL. Apache Hudi 0.9 include anche miglioramenti delle prestazioni sul lato query e sul lato scrittore.
Il runtime di Amazon EMR per Apache Hive migliora le prestazioni di Apache Hive su Amazon S3 rimuovendo le operazioni di ridenominazione durante le operazioni di gestione temporanea e migliora le prestazioni per i comandi di metastore check (MSCK) utilizzati per la riparazione delle tabelle.
Problemi noti
Quando le release 6.5.0, 6.6.0 o 6.7.0 di Amazon EMR leggono le tabelle di Apache Phoenix tramite la shell (interprete di comandi) Apache Spark, si verifica un
NoSuchMethodError
perché Amazon EMR utilizza un valore erratoHbase.compat.version
. Il rilascio 6.8.0 di Amazon EMR risolve questo problema.-
I cluster bundle Hbase in High Availability (HA) non riescono a effettuare il provisioning con la dimensione del volume e il tipo di istanza di default. La soluzione alternativa per questo problema consiste nell'aumentare la dimensione del volume principale.
Per utilizzare le operazioni Spark con Apache Oozie, devi aggiungere la seguente configurazione al tuo file
workflow.xml
Oozie. In caso contrario, diverse librerie critiche come Hadoop e EMRFS non saranno presenti nella classpath degli esecutori Spark lanciati da Oozie.<spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
-
Due o più partizioni vengono scansionate dalla stessa tabella.
-
Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio
s3://bucket/table/p=a
è un prefisso dis3://bucket/table/p=a b
. -
Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere
/
(U+002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U+0020) che compare tra a e b ins3://bucket/table/p=a b
. Tieni presente che esistono altri 14 caratteri non di controllo:!"#$%&‘()*+,-
. Per ulteriori informazioni, consulta la sezione UTF-8 encoding table and Unicode characters(Tabella di codifica UTF-8 e caratteri Unicode).
Per ovviare a questo problema, imposta la configurazione di
spark.sql.sources.fastS3PartitionDiscovery.enabled
sufalse
nella classificazione dispark-defaults
.-
Versioni dei componenti 6.5.0
I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con emr
o aws
. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.
Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo
. CommunityVersion
-amzn-EmrVersion
inizia da 0. Ad esempio, se un componente della community open source denominato EmrVersion
myapp-component
con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come 2.2-amzn-2
.
Componente | Versione | Descrizione |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.1 | SageMaker SDK Amazon Spark |
emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. |
emr-goodies | 3.2.0 | Librerie utili per l'ecosistema Hadoop. |
emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. |
emr-notebook-env | 1.4.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter |
emr-s3-dist-cp | 2.19.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. |
emr-s3-select | 2.1.0 | Connettore di EMR S3Select |
emrfs | 2,48,0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. |
flink-client | 1.14.0 | Applicazioni e script client a riga di comando Apache Flink. |
flink-jobmanager-config | 1.14.0 | Gestione delle risorse sui nodi EMR per Apache Flink. JobManager |
ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. |
ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. |
ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. |
hadoop-client | 3.2.1-amzn-5 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 3.2.1-amzn-5 | Servizio a livello di nodo HDFS per lo storage di blocchi. |
hadoop-hdfs-library | 3.2.1-amzn-5 | Libreria e client di riga di comando HDFS |
hadoop-hdfs-namenode | 3.2.1-amzn-5 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. |
hadoop-hdfs-journalnode | 3.2.1-amzn-5 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. |
hadoop-httpfs-server | 3.2.1-amzn-5 | Endpoint HTTP per le operazioni HDFS. |
hadoop-kms-server | 3.2.1-amzn-5 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider |
hadoop-mapred | 3.2.1-amzn-5 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce |
hadoop-yarn-nodemanager | 3.2.1-amzn-5 | Servizio YARN per la gestione di container su un singolo nodo. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-5 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. |
hadoop-yarn-timeline-server | 3.2.1-amzn-5 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. |
hbase-hmaster | 2.4.4-amzn-1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. |
hbase-region-server | 2.4.4-amzn-1 | Servizio per servire una o più HBase regioni. |
hbase-client | 2.4.4-amzn-1 | HBase client da riga di comando. |
hbase-rest-server | 2.4.4-amzn-1 | Servizio che fornisce un endpoint RESTful HTTP per. HBase |
hbase-thrift-server | 2.4.4-amzn-1 | Servizio che fornisce un endpoint Thrift a. HBase |
hcatalog-client | 3.1.2-amzn-6 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. |
hcatalog-server | 3.1.2-amzn-6 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. |
hcatalog-webhcat-server | 3.1.2-amzn-6 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. |
hive-client | 3.1.2-amzn-6 | Client a riga di comando Hive. |
hive-hbase | 3.1.2-amzn-6 | Client Hive-hbase. |
hive-metastore-server | 3.1.2-amzn-6 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. |
hive-server2 | 3.1.2-amzn-6 | Servizio per l'accettazione di query Hive come richieste Web. |
hudi | 0.9.0-amzn-1 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. |
hudi-presto | 0.9.0-amzn-1 | Libreria bundle per eseguire Presto con Hudi. |
hudi-trino | 0.9.0-amzn-1 | Libreria bundle per eseguire Trino con Hudi. |
hudi-spark | 0.9.0-amzn-1 | Libreria bundle per eseguire Spark con Hudi. |
hue-server | 4.9.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop |
iceberg | 0.12.0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici |
jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter |
livy-server | 0.7.1-incubating | Interfaccia REST per l'interazione con Apache Spark |
nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP |
mxnet | 1.8.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. |
mariadb-server | 5.5.68+ | Server di database MariaDB. |
nvidia-cuda | 10,1243 | Driver Nvidia e kit di strumenti Cuda |
oozie-client | 5.2.1 | Client a riga di comando Oozie. |
oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. |
opencv | 4.5.0 | Open Source Computer Vision Library. |
phoenix-library | 5.1.2 | Le librerie Phoenix per server e client |
phoenix-query-server | 5.1.2 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica |
presto-coordinator | 0.261-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. |
presto-worker | 0.261-amzn-0 | Servizio per l'esecuzione di parti di una query. |
presto-client | 0.261-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. |
trino-coordinator | 360 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. |
trino-worker | 360 | Servizio per l'esecuzione di parti di una query. |
trino-client | 360 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. |
pig-client | 0.17.0 | Client a riga di comando Pig. |
r | 40,2 | The R Project for Statistical Computing |
ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger |
spark-client | 3.1.2-amzn-1 | Client a riga di comando Spark. |
spark-history-server | 3.1.2-amzn-1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. |
spark-on-yarn | 3.1.2-amzn-1 | Motore di esecuzione in memoria per YARN. |
spark-yarn-slave | 3.1.2-amzn-1 | Librerie Apache Spark necessarie per gli slave YARN. |
spark-rapids | 04.1 | Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs |
sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. |
tensorflow | 2.4.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. |
tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. |
webserver | 2.4.41+ | Server Apache HTTP. |
zeppelin-server | 0.10.0 | Notebook basato sul Web che consente l'analisi di dati interattiva. |
zookeeper-server | 3.5.7 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. |
zookeeper-client | 3,5,7 | ZooKeeper client a riga di comando. |
Classificazioni di configurazione 6.5.0
Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio hive-site.xml
. Per ulteriori informazioni, consulta Configurazione delle applicazioni.
Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta Riconfigurazione di un gruppo di istanze in un cluster in esecuzione.
Classificazioni | Descrizione | Operazioni di riconfigurazione |
---|---|---|
capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. |
container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | Not available. |
container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | Not available. |
core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Modifica le impostazioni relative a docker. | Not available. |
emrfs-site | Modifica le impostazioni EMRFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. |
flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. |
flink-log4j-session | Modifica le impostazioni Flink log4j-session.properties per la sessione Kubernetes/Yarn. | Restarts Flink history server. |
flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. |
hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. |
hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. |
hbase | Impostazioni curate da Amazon EMR per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | Modifica i valori nell'ambiente. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. |
hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | Configura le zone di crittografia HDFS. | This classification should not be reconfigured. |
hdfs-env | Modifica i valori nell'ambiente HDFS. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | Cambia i valori nell' HCatalogambiente. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. | Restarts Hive WebHCat server. |
hive | Impostazioni Amazon EMR per Apache Hive. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. |
hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. |
hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. | Not available. |
hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. |
hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. |
hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. |
hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | Modifica i valori nell'ambiente HTTPFS. | Restarts Hadoop Httpfs service. |
httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. |
hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. |
hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. |
hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. |
iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. |
jupyter-notebook-conf | Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook. | Not available. |
jupyter-hub-conf | Cambia i valori nel file jupyterhub_config.py JupyterHubs. | Not available. |
jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. |
jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. |
livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. |
livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. |
livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. |
mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. |
oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. |
oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. |
phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. |
phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. |
phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. |
pig-env | Change values in the Pig environment. | Not available. |
pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. |
pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. |
presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. |
presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-node | Modifica i valori nel file node.properties di Presto. | Not available. |
presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. |
presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. |
presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. |
presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. |
presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. |
presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. |
presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. |
presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. |
presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. |
presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. |
presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. |
presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. |
presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. |
presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. |
trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) |
trino-node | Modifica i valori nel file node.properties di Trino. | Not available. |
trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. |
trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. |
trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. |
trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. |
trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. |
trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. |
trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. |
trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. |
trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. |
trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. |
trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. |
trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. |
trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. |
trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. |
ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | Restarts Ranger KMS Server. |
ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. | Restarts Ranger KMS Server. |
ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | Restarts Ranger KMS Server. |
ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | Not available. |
ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | Not available. |
spark | Impostazioni Amazon EMR per Apache Spark. | This property modifies spark-defaults. See actions there. |
spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. |
spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. |
spark-log4j | Modifica i valori nel file log4j.properties di Spark. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. |
sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. |
sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. |
tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. |
yarn-env | Modifica i valori nell'ambiente YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. |
zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. |
zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. |
zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. |