Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Amazon EMR versione 6.0.0
Versioni dell'applicazione 6.0.0
In questa versione sono supportate le seguenti applicazioni: Ganglia
La tabella seguente elenca le versioni delle applicazioni disponibili in questa versione di Amazon EMR e le versioni delle applicazioni nelle tre EMR versioni precedenti di Amazon (se applicabile).
Per una cronologia completa delle versioni delle applicazioni per ogni versione di AmazonEMR, consulta i seguenti argomenti:
Informazioni sulla versione dell'applicazione | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AWS SDKper Java | 1.11.828 | 1,11,828 | 1,11,711 | 1,11,711 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,11,12 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AmazonCloudWatchAgent | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Delta | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Flink | 1.11.0 | 1.11.0 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hue | 4,7,1 | 4,7,1 | 4.4.0 | 4.4.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Iceberg | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterEnterpriseGateway | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Livy | 0.7.0 | 0.7.0 | 0,6,0 | 0,6,0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mahout | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pig | 0.17.0 | 0.17.0 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto | 0.232 | 0.232 | 0.230 | 0.230 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Spark | 3.0.0 | 3.0.0 | 2.4.4 | 2.4.4 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop | 1.4.7 | 1.4.7 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Torino (Presto) SQL | 338 | 338 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
Note del rilascio 6.0.0
Le seguenti note di rilascio includono informazioni per la EMR versione 6.0.0 di Amazon.
Data del rilascio iniziale: 10 marzo 2020
Applicazioni supportate
AWS SDK for Java versione 1.11.711
Ganglia versione 3.7.2
Hadoop versione 3.2.1
HBaseversione 2.2.3
HCatalogversione 3.1.2
Hive versione 3.1.2
Hudi versione 0.5.0 in fase di sviluppo
Hue versione 4.4.0
JupyterHub versione 1.0.0
Livy versione 0.6.0
MXNetversione 1.5.1
Oozie versione 5.1.0
Phoenix versione 5.0.0
Presto versione 0.230
Spark versione 2.4.4
TensorFlow versione 1.14.0
Zeppelin versione 0.9.0- SNAPSHOT
Zookeeper versione 3.4.14
Connettori e driver: DynamoDB Connector 4.14.0
Nota
Flink, Sqoop, Pig e Mahout non sono disponibili nella versione Amazon 6.0.0. EMR
Nuove funzionalità
YARNDocker Runtime Support: YARN le applicazioni, come i job Spark, possono ora essere eseguite nel contesto di un contenitore Docker. Ciò consente di definire facilmente le dipendenze in un'immagine Docker senza la necessità di installare librerie personalizzate sul cluster AmazonEMR. Per ulteriori informazioni, consulta Configurare l'integrazione con Docker ed eseguire applicazioni Spark con Docker utilizzando Amazon 6.0.0. EMR
-
Hive LLAP Support - Hive ora supporta la modalità di LLAP esecuzione per migliorare le prestazioni delle query. Per ulteriori informazioni, vedere Utilizzo di Hive. LLAP
Modifiche, miglioramenti e problemi risolti
-
Questa è una versione per risolvere i problemi di Amazon EMR Scaling quando non riesce a scalare/ridimensionare correttamente un cluster o causa errori delle applicazioni.
È stato risolto un problema a causa del quale le richieste di scalabilità non andavano a buon fine per un cluster di grandi dimensioni e altamente utilizzato quando i demoni Amazon EMR on-cluster eseguivano attività di controllo dello stato del nodo, come la raccolta dello stato e dello stato del YARN nodo. HDFS Ciò accadeva perché i demoni on-cluster non erano in grado di comunicare i dati sullo stato di salute di un nodo ai componenti interni di Amazon. EMR
Demoni EMR sul cluster migliorati per tracciare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di scalabilità.
SPARK-29683
. È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati. YARN-9011
. È stato risolto un problema a causa del quale si verificavano errori di lavoro a causa di una situazione di emergenza durante la YARN disattivazione quando il cluster tentava di aumentare o ridurre la scalabilità. È stato risolto il problema relativo agli errori di passaggi o processi durante la scalabilità del cluster assicurando che gli stati dei nodi fossero sempre coerenti tra i demoni Amazon EMR on-cluster e/. YARN HDFS
È stato risolto un problema a causa del quale le operazioni di cluster come la scalabilità verso il basso e l'invio di passaggi non funzionavano per EMR i cluster Amazon abilitati con l'autenticazione Kerberos. Questo perché il EMR daemon Amazon on-cluster non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro conHDFS/in esecuzione sul nodo primario. YARN
Le EMR versioni più recenti di Amazon risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti AL2 di AmazonEMR. EMRLe versioni di Amazon 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive ora includono una correzione permanente con un'impostazione «Max open files» più elevata.
Amazon Linux
Amazon Linux 2 è il sistema operativo per la serie di release EMR 6.x.
systemd
viene utilizzato per la gestione dei servizi anziché inAmazon Linux 1upstart
utilizzato.
Kit di sviluppo Java (JDK)
Corretto JDK 8 è l'impostazione predefinita JDK per la serie di release EMR 6.x.
Scala
Scala 2.12 è usato con Apache Spark e Apache Livy.
Python 3
Python 3 è ora la versione predefinita di Python in. EMR
YARNetichette dei nodi
A partire dalla serie di release di Amazon EMR 6.x, la funzionalità delle etichette dei YARN nodi è disabilitata per impostazione predefinita. Per impostazione predefinita, i processi master dell'applicazione possono essere eseguiti su entrambi i nodi di task e core. Puoi abilitare la funzionalità delle etichette dei YARN nodi configurando le seguenti proprietà:
yarn.node-labels.enabled
e.yarn.node-labels.am.default-node-label-expression
Per ulteriori informazioni, consulta la sezione Understanding Primary, Core, and Task Nodes (Informazioni sui nodi primari, core e attività).
Problemi noti
-
Limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti AL2 [corretto nelle versioni più recenti]. EMRLe versioni di Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano sulle versioni precedenti di Linux ofAmazon 2 ()AL2, che hanno un'impostazione ulimit inferiore per «Max open files» quando i cluster Amazon vengono creati con l'impostazione predefinita. EMR AMI EMRLe versioni di Amazon 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione «Max open files» superiore. Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'EMRimpostazione predefinita di Amazon AMI ha un'impostazione ulimit predefinita di 4096 per «Max open files», che è inferiore al limite di 65536 file in Linux 2. latestAmazon AMI L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script bootstrap action (BA) che regola l'impostazione ulimit alla creazione del cluster.
Se utilizzi una EMR versione precedente di Amazon che non include la correzione permanente per questo problema, la seguente soluzione alternativa ti consente di impostare in modo esplicito il limite del controller di istanza su un massimo di 65536 file.
Impostazione di un ulimit esplicito dalla riga di comando
Modifica
/etc/systemd/system/instance-controller.service
per aggiungere i seguenti parametri alla sezione Servizio.LimitNOFILE=65536
LimitNPROC=65536
Riavvia InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Impostazione di un ulimit usando l'operazione di bootstrap (BA)
È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
La shell interattiva Spark PySpark, tra cui SparkR e spark-shell, non supporta l'uso di Docker con librerie aggiuntive.
-
Per usare Python 3 con la EMR versione Amazon 6.0.0, devi aggiungere a.
PATH
yarn.nodemanager.env-whitelist
-
La funzionalità Live Long and Process (LLAP) non è supportata quando si utilizza AWS Glue Data Catalog come metastore per Hive.
-
Quando usi Amazon EMR 6.0.0 con l'integrazione di Spark e Docker, devi configurare le istanze del cluster con lo stesso tipo di istanza e la stessa quantità di EBS volumi per evitare errori durante l'invio di un job Spark con Docker runtime.
-
In Amazon EMR 6.0.0, HBase la modalità di storage di Amazon S3 è interessata dal HBASE problema -24286.
HBaseil master non può inizializzarsi quando il cluster viene creato utilizzando dati S3 esistenti. -
Problema noto nei cluster con più nodi primari e autenticazione Kerberos
Se esegui cluster con più nodi primari e l'autenticazione Kerberos nelle EMR versioni di Amazon 5.20.0 e successive, potresti riscontrare problemi con le operazioni del cluster come la scalabilità o l'invio di passaggi, dopo che il cluster è stato in esecuzione per qualche tempo. Il periodo di tempo dipende dal periodo di validità del ticket Kerberos definito dall'utente. Il problema di dimensionamento verso il basso influisce sia sulle richieste di scalabilità automatica che sulle richieste esplicite di dimensionamento verso il basso inviate dall'utente. Possono essere influenzate anche le operazioni cluster aggiuntive.
Soluzione alternativa:
-
SSHcome
hadoop
utente del nodo primario principale del cluster con più nodi primari. EMR -
Esegui il comando seguente per rinnovare il ticket Kerberos per l'utente
hadoop
.kinit -kt <keytab_file> <principal>
In genere, il file keytab si trova in
/etc/hadoop.keytab
e l'entità principale si presenta nella forma dihadoop/<hostname>@<REALM>
.
Nota
Questa soluzione alternativa sarà valida per il periodo di tempo in cui il ticket Kerberos è valido. La durata è di 10 ore per impostazione predefinita, ma può essere configurata dalle impostazioni Kerberos. È necessario eseguire nuovamente il comando sopra indicato una volta scaduto il ticket Kerberos.
-
Versioni dei componenti 6.0.0
I componenti che Amazon EMR installa con questa versione sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono esclusivi di Amazon EMR e vengono installati per processi e funzionalità di sistema. Questi solitamente iniziano con emr
o aws
. I pacchetti di applicazioni Big Data nella EMR versione più recente di Amazon sono in genere l'ultima versione disponibile nella community. Rendiamo disponibili le versioni per la community su Amazon EMR il più rapidamente possibile.
Alcuni componenti di Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo
. CommunityVersion
-amzn-EmrVersion
inizia da 0. Ad esempio, se il componente della community open source denominato EmrVersion
myapp-component
con la versione 2.2 è stato modificato tre volte per essere incluso in diverse EMR versioni di Amazon, la sua versione di rilascio è elencata come2.2-amzn-2
.
Componente | Versione | Descrizione |
---|---|---|
aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK |
emr-ddb | 4.14.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. |
emr-goodies | 3.0.0 | Librerie utili per l'ecosistema Hadoop. |
emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. |
emr-s3-dist-cp | 2.14.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. |
emr-s3-select | 1.5.0 | EMRConnettore S3Select |
emrfs | 2.39.0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. |
ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. |
ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. |
ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. |
hadoop-client | 3.2.1-amzn-0 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 3.2.1-amzn-0 | HDFSservizio a livello di nodo per l'archiviazione dei blocchi. |
hadoop-hdfs-library | 3.2.1-amzn-0 | HDFSclient e libreria da riga di comando |
hadoop-hdfs-namenode | 3.2.1-amzn-0 | HDFSservizio per tracciare i nomi dei file e le posizioni dei blocchi. |
hadoop-hdfs-journalnode | 3.2.1-amzn-0 | HDFSservizio per la gestione del diario del file system Hadoop su cluster HA. |
hadoop-httpfs-server | 3.2.1-amzn-0 | HTTPHDFSendpoint per le operazioni. |
hadoop-kms-server | 3.2.1-amzn-0 | Server di gestione delle chiavi crittografiche basato su Hadoop. KeyProvider API |
hadoop-mapred | 3.2.1-amzn-0 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce |
hadoop-yarn-nodemanager | 3.2.1-amzn-0 | YARNservizio per la gestione dei contenitori su un singolo nodo. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-0 | YARNservizio per l'allocazione e la gestione delle risorse del cluster e delle applicazioni distribuite. |
hadoop-yarn-timeline-server | 3.2.1-amzn-0 | Servizio per il recupero di informazioni correnti e storiche per le applicazioni. YARN |
hbase-hmaster | 2.2.3 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. |
hbase-region-server | 2.2.3 | Servizio per servire una o più HBase regioni. |
hbase-client | 2.2.3 | HBaseclient da riga di comando. |
hbase-rest-server | 2.2.3 | Servizio che fornisce un RESTful HTTP endpoint per. HBase |
hbase-thrift-server | 2.2.3 | Servizio che fornisce un endpoint Thrift a. HBase |
hcatalog-client | 3.1.2-amzn-0 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. |
hcatalog-server | 3.1.2-amzn-0 | Fornitura di serviziHCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. |
hcatalog-webhcat-server | 3.1.2-amzn-0 | HTTPendpoint che fornisce un'RESTinterfaccia a. HCatalog |
hive-client | 3.1.2-amzn-0 | Client a riga di comando Hive. |
hive-hbase | 3.1.2-amzn-0 | Client Hive-hbase. |
hive-metastore-server | 3.1.2-amzn-0 | Servizio per l'accesso al metastore Hive, un archivio semantico che archivia i metadati per le operazioni su Hadoop. SQL |
hive-server2 | 3.1.2-amzn-0 | Servizio per l'accettazione di query Hive come richieste Web. |
hudi | 0.5.0-incubating-amzn-1 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. |
hudi-presto | 0.5.0-incubating-amzn-1 | Libreria bundle per eseguire Presto con Hudi. |
hue-server | 4.4.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop |
jupyterhub | 1.0.0 | Server multi-utente per notebook Jupyter |
livy-server | 0.6.0-incubating | RESTinterfaccia per interagire con Apache Spark |
nginx | 1.12.1 | nginx [engine x] è HTTP un server proxy e inverso |
mxnet | 1.5.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. |
mariadb-server | 5.5.64+ | Server di database MariaDB. |
nvidia-cuda | 9.2.88 | Driver Nvidia e kit di strumenti Cuda |
oozie-client | 5.1.0 | Client a riga di comando Oozie. |
oozie-server | 5.1.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. |
opencv | 3.4.0 | Open Source Computer Vision Library. |
phoenix-library | 5.0.0- -2.0 HBase | Le librerie Phoenix per server e client |
phoenix-query-server | 5.0.0- -2,0 HBase | Un server leggero che fornisce JDBC l'accesso, i buffer di protocollo e l'accesso ai JSON formati ad Avatica API |
presto-coordinator | 0.230 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. |
presto-worker | 0.230 | Servizio per l'esecuzione di parti di una query. |
presto-client | 0.230 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. |
r | 3.4.3 | The R Project for Statistical Computing |
spark-client | 2.4.4 | Client a riga di comando Spark. |
spark-history-server | 2.4.4 | Interfaccia utente Web per la visualizzazione di eventi registrati per il ciclo di vita di un'applicazione Spark completata. |
spark-on-yarn | 2.4.4 | Motore di esecuzione in memoria per. YARN |
spark-yarn-slave | 2.4.4 | Librerie Apache Spark necessarie agli slave. YARN |
tensorflow | 1.14.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. |
tez-on-yarn | 0.9.2 | L'YARNapplicazione e le librerie tez. |
webserver | 2.4.41+ | Server ApacheHTTP. |
zeppelin-server | 0.9.0- SNAPSHOT | Notebook basato sul Web che consente l'analisi di dati interattiva. |
zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. |
zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. |
Classificazioni di configurazione 6.0.0
Le classificazioni di configurazione consentono di personalizzare le applicazioni. Questi spesso corrispondono a un XML file di configurazione per l'applicazione, ad esempiohive-site.xml
. Per ulteriori informazioni, consulta Configurazione delle applicazioni.
Classificazioni emr-6.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Classificazioni | Descrizione | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-executor | Modifica i valori nel file container-executor.cfg di YARN Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop. YARN | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
core-site | Modifica i valori nel file core-site.xml di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
emrfs-site | EMRFSModificare le impostazioni. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-server | Modifica la configurazione server ssl hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-client | Modifica la configurazione client ssl hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase | Impostazioni EMR curate da Amazon per Apache. HBase | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-env | Modifica i valori nell'ambienteHBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-site | Cambia i valori nel HBase file hbase-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-encryption-zones | Configura le zone di HDFS crittografia. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-env | Modifica i valori nell'HDFSambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-site | Cambia i valori in HDFS's hdfs-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-env | Cambia i valori nell'HCatalogambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-jndi | Modifica i valori in HCatalog jndi.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-proto-hive-site | Cambia i valori nel file .xmlHCatalog. proto-hive-site | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-env | Cambia i valori nell'ambiente ebHCat di HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-log4j2 | Cambia i valori in ebHCat log4j2.properties di HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-site | Cambia i valori nel file webhcat-site.xml di HCatalog W. ebHCat | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive | Impostazioni EMR curate da Amazon per Apache Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-env | Modifica i valori nell'ambiente Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-exec-log4j2 | Modifica i valori nel file 4j2.properties di Hive. hive-exec-log | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-site | Modifica i valori nel file hive-site.xml di Hive | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hue-ini | Modifica i valori nel file ini di Hue | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-env | Modifica i valori nell'ambiente. HTTPFS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-env | Modifica i valori nell'ambiente Hadoop. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-notebook-conf | Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-hub-conf | Modifica i valori nel JupyterHubs file jupyterhub_config.py. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-conf | Modifica i valori nel file livy.conf di Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-env | Modifica i valori nell'ambiente Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-log4j | Modifica le impostazioni Livy log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-env | Modifica i valori nell'ambiente di Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-log | Modifica i valori nel file log.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-config | Modifica i valori nel file config.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-env | Modifica i valori nel file presto-env.sh di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-node | Modifica i valori nel file node.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-env | Modifica i valori nell'ambiente RangerKMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-db-ca | Modifica i valori per il file CA su S3 per La mia connessione con Ranger. SQL SSL KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-env | Modifica i valori nell'ambiente. EMR RecordServer | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-conf | Modifica i valori nel file EMR RecordServer erver.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-log4j | Modifica i valori nel file EMR RecordServer log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark | Impostazioni EMR curate da Amazon per Apache Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-env | Modifica i valori nell'ambiente Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-log4j | Modifica i valori nel file log4j.properties di Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-metrics | Modifica i valori nel file metrics.properties di Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
tez-site | Modifica i valori nel file tez-site.xml file di Tez. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-env | Modifica i valori nell'ambiente. YARN | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-site | Modifica i valori nel YARN file yarn-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. |