Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Amazon EMR versione 6.3.0
Versioni dell'applicazione 6.3.0
In questa versione sono supportate le seguenti applicazioni: Flink
La tabella seguente elenca le versioni delle applicazioni disponibili in questa versione di Amazon EMR e le versioni delle applicazioni nelle tre EMR versioni precedenti di Amazon (se applicabile).
Per una cronologia completa delle versioni delle applicazioni per ogni versione di AmazonEMR, consulta i seguenti argomenti:
emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | |
---|---|---|---|---|
AWS SDKper Java | 1.11.977 | 1,11,80 | 1,11,80 | 1,11,828 |
Python | 2.7, 3.7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 |
Scala | 2,12,10 | 2,12,10 | 2,12,10 | 2,12,10 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.6 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 |
Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4,7,1 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | - |
JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 |
Livy | 0.7.0 | 0.7.0 | 0.7.0 | 0.7.0 |
MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0,245,1 | 0,238,3 | 0,238,3 | 0.232 |
Spark | 3.1.1 | 3.0.1 | 3.0.1 | 3.0.0 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Torino (Presto) SQL | 350 | 343 | 343 | 338 |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
Note del rilascio 6.3.0
Le seguenti note di rilascio includono informazioni per la EMR versione 6.3.0 di Amazon. Le modifiche sono relative alla versione 6.2.0.
Data del rilascio iniziale: 12 maggio 2021
Ultimo aggiornamento: 9 agosto 2021
Applicazioni supportate
AWS SDK for Java versione 1.11.977
CloudWatch Sink versione 2.1.0
DynamoDB Connector versione 4.16.0
EMRFSversione 2.46.0
Amazon EMR Goodies versione 3.2.0
Amazon EMR Kinesis Connector versione 3.5.0
Amazon EMR Record Server versione 2.0.0
Amazon EMR Scripts versione 2.5.0
Flink versione 1.12.1
Ganglia versione 3.7.2
AWS Glue Hive Metastore Client versione 3.2.0
Hadoop versione 3.2.1-amzn-3
HBaseversione 2.2.6-amzn-1
HBase-operator-tools 1.0.0
HCatalogversione 3.1.2-amzn-0
Hive versione 3.1.2-amzn-4
Hudi versione 0.7.0-amzn-0
Hue versione 4.9.0
JDKVersione Java Corretto-8.282.08.1 (build 1.8.0_282-b08)
JupyterHub versione 1.2.0
Livy versione 0.7.0-incubating
MXNetversione 1.7.0
Oozie versione 5.2.1
Phoenix versione 5.0.0
Pig versione 0.17.0
Presto versione 0.245.1-amzn-0
Presto versione 3.50 SQL
Apache Ranger KMS (crittografia trasparente multimaster) versione 2.0.0
ranger-plugins 2.0.1-amzn-0
ranger-s3-plugin 1.1.0
SageMaker SDKSpark versione 1.4.1
Scala versione 2.12.10 (Open JDK 64-Bit Server VM, Java 1.8.0_282)
Spark versione 3.1.1-amzn-0
spark-rapids 0.4.1
Sqoop versione 1.4.7
TensorFlow versione 2.4.1
tez versione 0.9.2
Zeppelin versione 0.9.0
Zookeeper versione 3.4.14
Connettori e driver: DynamoDB Connector 4.16.0
Nuove funzionalità
Amazon EMR supporta Amazon S3 Access Points, una funzionalità di Amazon S3 che consente di gestire facilmente l'accesso ai data lake condivisi. Utilizzando il tuo alias Amazon S3 Access Point, puoi semplificare l'accesso ai dati su larga scala su Amazon. EMR Puoi utilizzare Amazon S3 Access Point con tutte le versioni di Amazon EMR senza costi aggiuntivi in tutte le AWS regioni in cui Amazon EMR è disponibile. Per ulteriori informazioni sugli alias degli Access Point e degli Amazon S3 Access Point, consulta Utilizzo di un alias in stile bucket per il punto di accesso nella Guida per l'utente di Amazon S3.
I nuovi
ListReleaseLabel
API parametriDescribeReleaseLabel
e forniscono i dettagli dell'etichetta di EMR rilascio di Amazon. Puoi elencare in modo programmatico le release disponibili nella regione in cui viene eseguita la API richiesta ed elencare le applicazioni disponibili per una specifica etichetta di EMR rilascio Amazon. I parametri dell'etichetta di rilascio elencano anche le EMR versioni di Amazon che supportano un'applicazione specifica, come Spark. Queste informazioni possono essere utilizzate per avviare in modo programmatico i cluster AmazonEMR. Ad esempio, è possibile avviare un cluster utilizzando la versione più recente dai risultati diListReleaseLabel
. Per ulteriori informazioni, consulta DescribeReleaseLabele ListReleaseLabelsin Amazon EMR API Reference.Con Amazon EMR 6.3.0, puoi avviare un cluster che si integra nativamente con Apache Ranger. Apache Ranger è un framework open source che consente di abilitare, monitorare e gestire la sicurezza completa dei dati attraverso la piattaforma Hadoop. Per ulteriori informazioni, consulta Apache Ranger
. Con l'integrazione nativa, puoi utilizzare il tuo Apache Ranger per applicare un controllo granulare degli accessi ai dati su Amazon. EMR Vedi Integrazione di Amazon EMR con Apache Ranger nella Amazon EMR Management Guide. Policy gestite con ambito: per allinearsi alle AWS migliori pratiche, Amazon EMR ha introdotto politiche gestite predefinite con EMR ambito v2 in sostituzione delle politiche che verranno obsolete. Vedi Amazon EMR Managed Policies.
Stato del supporto di Instance Metadata Service (IMDS) V2: per Amazon EMR 6.2 o versioni successive, EMR i componenti Amazon vengono utilizzati IMDSv2 per tutte le chiamate. IMDS Per IMDS le chiamate nel codice dell'applicazione, puoi utilizzare entrambi IMDSv1 e IMDSv2 oppure configurarle in modo che vengano utilizzate solo IMDSv2 per una maggiore sicurezza. IMDS La disattivazione IMDSv1 nelle versioni precedenti di Amazon EMR 6.x causa un errore di avvio del cluster.
Modifiche, miglioramenti e problemi risolti
-
Questa è una versione per risolvere i problemi di Amazon EMR Scaling quando non riesce a scalare/ridimensionare correttamente un cluster o causa errori delle applicazioni.
È stato risolto un problema a causa del quale le richieste di scalabilità non andavano a buon fine per un cluster di grandi dimensioni e altamente utilizzato quando i demoni Amazon EMR on-cluster eseguivano attività di controllo dello stato del nodo, come la raccolta dello stato e dello stato del YARN nodo. HDFS Ciò accadeva perché i demoni on-cluster non erano in grado di comunicare i dati sullo stato di salute di un nodo ai componenti interni di Amazon. EMR
Demoni EMR sul cluster migliorati per tracciare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di scalabilità.
SPARK-29683
. È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati. YARN-9011
. È stato risolto un problema a causa del quale si verificavano errori di lavoro a causa di una situazione di emergenza durante la YARN disattivazione quando il cluster tentava di aumentare o ridurre la scalabilità. È stato risolto il problema relativo agli errori di passaggi o processi durante la scalabilità del cluster assicurando che gli stati dei nodi fossero sempre coerenti tra i demoni Amazon EMR on-cluster e/. YARN HDFS
È stato risolto un problema a causa del quale le operazioni di cluster come la scalabilità verso il basso e l'invio di passaggi non funzionavano per EMR i cluster Amazon abilitati con l'autenticazione Kerberos. Questo perché il EMR daemon Amazon on-cluster non ha rinnovato il ticket Kerberos, necessario per comunicare in modo sicuro conHDFS/in esecuzione sul nodo primario. YARN
Le EMR versioni più recenti di Amazon risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti AL2 di AmazonEMR. EMRLe versioni di Amazon 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive ora includono una correzione permanente con un'impostazione «Max open files» più elevata.
La SQL modalità di spiegazione predefinita
extended
formatted
dell'interfaccia utente diSpark è stata modificata da a in Spark 3.1. Amazon lo EMR ha ripristinato extended
per includere le informazioni logiche del piano nell'interfaccia utente di SparkSQL. Questa può essere ripristinata impostandospark.sql.ui.explainMode
suformatted
.-
I seguenti commit sono stati sottoposti al backport dal ramo principale di Spark.
- [SPARK-34752] [BUILD]
Porta Jetty alla versione 9.4.37 per indirizzare -2020-27223. CVE - [-34534] Corregge l'ordine quando viene utilizzato per recuperare i blocchi. SPARK
blockIds FetchShuffleBlocks - [SPARK-34681] [SQL]
Risolto il bug relativo all'hash join completamente esterno mescolato quando si costruiva il lato sinistro con condizioni non uguali. - [SPARK-34497] [SQL]
Corregge i provider di connessione integrati per ripristinare le modifiche al contesto di sicurezza. JDBC JVM Per migliorare l'interoperabilità con il RAPIDs plug-in Nvidia Spark, è stata aggiunta una soluzione alternativa per risolvere un problema che impedisce l'attivazione della rimozione dinamica delle partizioni quando si utilizza Nvidia Spark RAPIDs con l'esecuzione adattiva delle query disabilitata, vedi il numero #1378 e il numero # #1386. RAPIDS RAPIDS
Per i dettagli sulla nuova configurazione, consulta il numero # #1386. spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse
RAPIDSL'algoritmo predefinito del committer di output del file è stato modificato dall'algoritmo v2 all'algoritmo v1 in Spark 3.1 open source. Per ulteriori informazioni, consulta questo articolo di Amazon sull'EMRottimizzazione delle prestazioni di Spark: Dynamic Partition
Pruning. Amazon EMR è tornato all'algoritmo v2, l'impostazione predefinita utilizzata nelle precedenti versioni di Amazon EMR 6.x, per prevenire la regressione delle prestazioni. Per ripristinare il comportamento di Spark 3.1 open source, imposta
spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version
su1
. Spark open source ha apportato questa modifica perché il task commit nell'algoritmo del committer v2 di output del file non è atomico, il che può causare un problema di correttezza dei dati di output in alcuni casi. Tuttavia, anche il task commit nell'algoritmo v1 non è atomico. In alcuni casi, il task commit include un'eliminazione eseguita prima di una rinomina. Ciò può causare un problema di correttezza dei dati silenti.Sono stati corretti i problemi di Managed Scaling nelle EMR versioni precedenti di Amazon e sono stati apportati miglioramenti per ridurre significativamente i tassi di errore delle applicazioni.
Installato il SDK pacchetto AWS Java su ogni nuovo cluster. Si tratta di un singolo jar contenente tutti i servizi SDKs e le relative dipendenze, anziché i vasetti dei singoli componenti. Per ulteriori informazioni, consulta Java SDK Bundled
Dependency.
Problemi noti
Per i cluster di sottoreti privati Amazon EMR 6.3.0 e 6.2.0, non puoi accedere all'interfaccia utente web di Ganglia. Verrà visualizzato l'errore "access denied (403) (accesso negato (403))". Altri siti WebUIs, come Spark, Hue, Zeppelin, Livy e JupyterHub Tez, funzionano normalmente. Anche l'accesso all'interfaccia utente Web di Ganglia sui cluster della sottorete pubblica funziona normalmente. Per risolvere il problema, riavvia il servizio httpd sul nodo primario con
sudo systemctl restart httpd
. Questo problema è stato risolto in Amazon EMR 6.4.0.Quando AWS Glue Data Catalog è abilitato, l'utilizzo di Spark per accedere a un AWS Glue DB con posizione di stringa nulla URI potrebbe fallire. Questo accade alle EMR versioni precedenti di Amazon, ad eccezione di SPARK -31709 (https://issues.apache. org/jira/browse/SPARK-31709) lo rende applicabile a più casi. Ad esempio, quando si crea una tabella all'interno del AWS Glue DB predefinito la cui posizione URI è una stringa nulla,
spark.sql("CREATE TABLE mytest (key string) location '/table_path';")
fallisce con il messaggio «Impossibile creare un percorso da una stringa vuota». Per ovviare a questo problema, imposta manualmente una posizione URI dei tuoi database AWS Glue, quindi crea tabelle all'interno di questi database usando Spark.In Amazon EMR 6.3.0, Presto SQL è stato aggiornato dalla versione 343 alla versione 350. Sono state apportate due modifiche relative alla protezione rispetto all'open source. Il controllo dell'accesso al catalogo basato su file viene modificato da
deny
aallow
quando le regole delle proprietà di tabella, schema o sessione non sono definite. Inoltre, il controllo dell'accesso al sistema basato su file viene modificato per supportare i file senza regole di catalogo definite. In questo caso, è consentito l'intero accesso ai cataloghi.Per ulteriori informazioni, consulta Rilascio 344 (9 ottobre 2020)
Tieni presente la directory utente di Hadoop (/) home/hadoop) is readable by everyone. It has Unix 755 (drwxr-xr-x) directory permissions to allow read access by frameworks like Hive. You can put files in /home/hadoop e le relative sottodirectory, ma fai attenzione alle autorizzazioni su tali directory per proteggere le informazioni sensibili.
-
Limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti AL2 [corretto nelle versioni più recenti]. EMRLe versioni di Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano sulle versioni precedenti di Linux ofAmazon 2 ()AL2, che hanno un'impostazione ulimit inferiore per «Max open files» quando i cluster Amazon vengono creati con l'impostazione predefinita. EMR AMI EMRLe versioni di Amazon 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione «Max open files» superiore. Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'EMRimpostazione predefinita di Amazon AMI ha un'impostazione ulimit predefinita di 4096 per «Max open files», che è inferiore al limite di 65536 file in Linux 2. latestAmazon AMI L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script bootstrap action (BA) che regola l'impostazione ulimit alla creazione del cluster.
Se utilizzi una EMR versione precedente di Amazon che non include la correzione permanente per questo problema, la seguente soluzione alternativa ti consente di impostare in modo esplicito il limite del controller di istanza su un massimo di 65536 file.
Impostazione di un ulimit esplicito dalla riga di comando
Modifica
/etc/systemd/system/instance-controller.service
per aggiungere i seguenti parametri alla sezione Servizio.LimitNOFILE=65536
LimitNPROC=65536
Riavvia InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Impostazione di un ulimit usando l'operazione di bootstrap (BA)
È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
Importante
EMRi cluster che eseguono Amazon Linux o Amazon Linux 2 Amazon Machine Images (AMIs) utilizzano il comportamento predefinito di Amazon Linux e non scaricano e installano automaticamente aggiornamenti del kernel importanti e critici che richiedono un riavvio. Questo è lo stesso comportamento delle altre EC2 istanze Amazon che eseguono Amazon Linux AMI predefinito. Se nuovi aggiornamenti software di Amazon Linux che richiedono un riavvio (ad esempio kernel e CUDA aggiornamenti) diventano disponibili dopo la disponibilità di una EMR versione di Amazon, le istanze EMR cluster che eseguono l'impostazione predefinita AMI non scaricano e installano automaticamente tali aggiornamenti. NVIDIA Per ottenere gli aggiornamenti del kernel, puoi personalizzare Amazon EMR AMI per utilizzare la versione più recente di Amazon Linux AMI.
Per utilizzare le operazioni Spark con Apache Oozie, devi aggiungere la seguente configurazione al tuo file
workflow.xml
Oozie. Altrimenti, nel classpath degli esecutori Spark lanciati da Oozie EMRFS mancheranno diverse librerie critiche come Hadoop e Hadoop.<spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
Quando usi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 e esegui Spark sulle EMR versioni di Amazon da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
-
Due o più partizioni vengono scansionate dalla stessa tabella.
-
Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio
s3://bucket/table/p=a
è un prefisso dis3://bucket/table/p=a b
. -
Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore -8 inferiore al carattere (U+002F). UTF
/
Ad esempio, rientra in questa categoria il carattere dello spazio (U+0020) che compare tra a e b ins3://bucket/table/p=a b
. Tieni presente che esistono altri 14 caratteri non di controllo:!"#$%&‘()*+,-
. Per ulteriori informazioni, vedete la tabella di codifica UTF-8e i caratteri Unicode.
Per ovviare a questo problema, imposta la configurazione di
spark.sql.sources.fastS3PartitionDiscovery.enabled
sufalse
nella classificazione dispark-defaults
.-
Versioni dei componenti 6.3.0
I componenti che Amazon EMR installa con questa versione sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono esclusivi di Amazon EMR e installati per processi e funzionalità di sistema. Questi solitamente iniziano con emr
o aws
. I pacchetti di applicazioni Big Data nella EMR versione più recente di Amazon sono in genere l'ultima versione disponibile nella community. Rendiamo disponibili le versioni per la community su Amazon EMR il più rapidamente possibile.
Alcuni componenti di Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo
. CommunityVersion
-amzn-EmrVersion
inizia da 0. Ad esempio, se il componente della community open source denominato EmrVersion
myapp-component
con la versione 2.2 è stato modificato tre volte per essere incluso in diverse EMR versioni di Amazon, la sua versione di rilascio è elencata come2.2-amzn-2
.
Componente | Versione | Descrizione |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK |
emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. |
emr-goodies | 3.2.0 | Librerie utili per l'ecosistema Hadoop. |
emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. |
emr-notebook-env | 1.2.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter |
emr-s3-dist-cp | 2.18.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. |
emr-s3-select | 2.1.0 | EMRConnettore S3Select |
emrfs | 2.46.0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. |
flink-client | 1.12.1 | Applicazioni e script client a riga di comando Apache Flink. |
flink-jobmanager-config | 1.12.1 | Gestione delle risorse sui EMR nodi per Apache Flink. JobManager |
ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. |
ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. |
ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. |
hadoop-client | 3.2.1-amzn-3 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 3.2.1-amzn-3 | HDFSservizio a livello di nodo per l'archiviazione dei blocchi. |
hadoop-hdfs-library | 3.2.1-amzn-3 | HDFSclient e libreria da riga di comando |
hadoop-hdfs-namenode | 3.2.1-amzn-3 | HDFSservizio per tracciare i nomi dei file e le posizioni dei blocchi. |
hadoop-hdfs-journalnode | 3.2.1-amzn-3 | HDFSservizio per la gestione del diario del file system Hadoop su cluster HA. |
hadoop-httpfs-server | 3.2.1-amzn-3 | HTTPHDFSendpoint per le operazioni. |
hadoop-kms-server | 3.2.1-amzn-3 | Server di gestione delle chiavi crittografiche basato su Hadoop. KeyProvider API |
hadoop-mapred | 3.2.1-amzn-3 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce |
hadoop-yarn-nodemanager | 3.2.1-amzn-3 | YARNservizio per la gestione dei contenitori su un singolo nodo. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-3 | YARNservizio per l'allocazione e la gestione delle risorse del cluster e delle applicazioni distribuite. |
hadoop-yarn-timeline-server | 3.2.1-amzn-3 | Servizio per il recupero di informazioni correnti e storiche per le applicazioni. YARN |
hbase-hmaster | 2.2.6-amzn-1 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. |
hbase-region-server | 2.2.6-amzn-1 | Servizio per servire una o più HBase regioni. |
hbase-client | 2.2.6-amzn-1 | HBaseclient da riga di comando. |
hbase-rest-server | 2.2.6-amzn-1 | Servizio che fornisce un RESTful HTTP endpoint per. HBase |
hbase-thrift-server | 2.2.6-amzn-1 | Servizio che fornisce un endpoint Thrift a. HBase |
hcatalog-client | 3.1.2-amzn-4 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. |
hcatalog-server | 3.1.2-amzn-4 | Fornitura di serviziHCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. |
hcatalog-webhcat-server | 3.1.2-amzn-4 | HTTPendpoint che fornisce un'RESTinterfaccia a. HCatalog |
hive-client | 3.1.2-amzn-4 | Client a riga di comando Hive. |
hive-hbase | 3.1.2-amzn-4 | Client Hive-hbase. |
hive-metastore-server | 3.1.2-amzn-4 | Servizio per l'accesso al metastore Hive, un archivio semantico che archivia i metadati per le operazioni su Hadoop. SQL |
hive-server2 | 3.1.2-amzn-4 | Servizio per l'accettazione di query Hive come richieste Web. |
hudi | 0.7.0-amzn-0 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. |
hudi-presto | 0.7.0-amzn-0 | Libreria bundle per eseguire Presto con Hudi. |
hudi-prestosql | 0.7.0-amzn-0 | Libreria in bundle per eseguire Presto con Hudi. SQL |
hudi-spark | 0.7.0-amzn-0 | Libreria bundle per eseguire Spark con Hudi. |
hue-server | 4.9.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop |
jupyterhub | 1.2.2 | Server multi-utente per notebook Jupyter |
livy-server | 0.7.0-incubating | RESTinterfaccia per interagire con Apache Spark |
nginx | 1.12.1 | nginx [engine x] è HTTP un server proxy e inverso |
mxnet | 1.7.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. |
mariadb-server | 5.5.68+ | Server di database MariaDB. |
nvidia-cuda | 10,1243 | Driver Nvidia e kit di strumenti Cuda |
oozie-client | 5.2.1 | Client a riga di comando Oozie. |
oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. |
opencv | 4.5.0 | Open Source Computer Vision Library. |
phoenix-library | 5.0.0- -2,0 HBase | Le librerie Phoenix per server e client |
phoenix-query-server | 5.0.0- -2,0 HBase | Un server leggero che fornisce JDBC l'accesso, i buffer di protocollo e l'accesso ai JSON formati ad Avatica API |
presto-coordinator | 0.245.1-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. |
presto-worker | 0.245.1-amzn-0 | Servizio per l'esecuzione di parti di una query. |
presto-client | 0.245.1-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. |
prestosql-coordinator | 350 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti prestosql-workers. |
prestosql-worker | 350 | Servizio per l'esecuzione di parti di una query. |
prestosql-client | 350 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. |
pig-client | 0.17.0 | Client a riga di comando Pig. |
r | 4.0.2 | The R Project for Statistical Computing |
ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger |
spark-client | 3.1.1-amzn-0 | Client a riga di comando Spark. |
spark-history-server | 3.1.1-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. |
spark-on-yarn | 3.1.1-amzn-0 | Motore di esecuzione in memoria per. YARN |
spark-yarn-slave | 3.1.1-amzn-0 | Librerie Apache Spark necessarie agli slave. YARN |
spark-rapids | 0.4.1 | RAPIDSPlugin Nvidia Spark che accelera Apache Spark con. GPUs |
sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. |
tensorflow | 2.4.1 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. |
tez-on-yarn | 0.9.2 | L'YARNapplicazione e le librerie tez. |
webserver | 2.4.41+ | Server ApacheHTTP. |
zeppelin-server | 0.9.0 | Notebook basato sul Web che consente l'analisi di dati interattiva. |
zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. |
zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. |
Classificazioni di configurazione 6.3.0
Le classificazioni di configurazione consentono di personalizzare le applicazioni. Questi spesso corrispondono a un XML file di configurazione per l'applicazione, ad esempiohive-site.xml
. Per ulteriori informazioni, consulta Configurazione delle applicazioni.
Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon avvia EMR solo azioni di riconfigurazione per le classificazioni che modifichi. Per ulteriori informazioni, consulta Riconfigurazione di un gruppo di istanze in un cluster in esecuzione.
Classificazioni | Descrizione | Operazioni di riconfigurazione |
---|---|---|
capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. |
container-executor | Modifica i valori nel file container-executor.cfg di HadoopYARN. | Not available. |
container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop. YARN | Not available. |
core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Modifica le impostazioni relative a docker. | Not available. |
emrfs-site | EMRFSModificare le impostazioni. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. |
flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. |
flink-log4j-session | Modifica le impostazioni Flink log4j-session.properties per la sessione Kubernetes/Yarn. | Restarts Flink history server. |
flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. |
hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. |
hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. |
hbase | Impostazioni EMR curate da Amazon per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | Modifica i valori nell'ambienteHBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. |
hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | Configura le zone di HDFS crittografia. | This classification should not be reconfigured. |
hdfs-env | Modifica i valori nell'HDFSambiente. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | Cambia i valori in HDFS's hdfs-site.xml. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | Cambia i valori nell'HCatalogambiente. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | Cambia i valori nel file .xmlHCatalog. proto-hive-site | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | Cambia i valori nell'ambiente ebHCat di HCatalog W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | Modifica i valori in HCatalog ebHCat log4j2.properties di W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | Modifica i valori nel file webhcat-site.xml di HCatalog W. ebHCat | Restarts Hive WebHCat server. |
hive | Impostazioni EMR curate da Amazon per Apache Hive. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. |
hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. |
hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Modifica i valori nel file 4j2.properties di Hive. hive-exec-log | Not available. |
hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. |
hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. |
hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. |
hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | Cambia i valori nell'ambiente. HTTPFS | Restarts Hadoop Httpfs service. |
httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. |
hadoop-kms-env | Modifica i valori nell'ambiente Hadoop. KMS | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. |
hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. |
jupyter-notebook-conf | Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook. | Not available. |
jupyter-hub-conf | Modificare i valori nel JupyterHubs file jupyterhub_config.py. | Not available. |
jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. |
jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. |
livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. |
livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. |
livy-log4j | Modifica le impostazioni Livy log4j.properties. | Restarts Livy Server. |
mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. |
oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. |
oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. |
phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. |
phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. |
phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. |
pig-env | Change values in the Pig environment. | Not available. |
pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. |
pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. |
presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. |
presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-node | Modifica i valori nel file node.properties di Presto. | Not available. |
presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. |
presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. |
presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. |
presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. |
presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. |
presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. |
presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. |
presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. |
presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. |
presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. |
presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. |
presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. |
presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. |
presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. |
prestosql-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-node | Modifica i valori nel file node.properties SQL di Presto. | Not available. |
prestosql-connector-blackhole | Modifica i valori nel file blackhole.properties SQL di Presto. | Not available. |
prestosql-connector-cassandra | Modifica i valori nel file cassandra.properties SQL di Presto. | Not available. |
prestosql-connector-hive | Modifica i valori nel file hive.properties di PrestoSQL. | Restarts Presto-Server (for PrestoSQL) |
prestosql-connector-jmx | Modifica i valori nel file jmx.properties SQL di Presto. | Not available. |
prestosql-connector-kafka | Modifica i valori nel file kafka.properties SQL di Presto. | Not available. |
prestosql-connector-localfile | Modifica i valori nel file localfile.properties di PrestoSQL. | Not available. |
prestosql-connector-memory | Modifica i valori nel file memory.properties SQL di Presto. | Not available. |
prestosql-connector-mongodb | Modifica i valori nel file mongodb.properties SQL di Presto. | Not available. |
prestosql-connector-mysql | Modifica i valori nel file mysql.properties SQL di Presto. | Not available. |
prestosql-connector-postgresql | Modifica i valori nel file postgresql.properties di PrestoSQL. | Not available. |
prestosql-connector-raptor | Modifica i valori nel file raptor.properties di Presto. SQL | Not available. |
prestosql-connector-redis | Modifica i valori nel file redis.properties SQL di Presto. | Not available. |
prestosql-connector-redshift | Modifica i valori nel file redshift.properties SQL di Presto. | Not available. |
prestosql-connector-tpch | Modifica i valori nel file tpch.properties SQL di Presto. | Not available. |
prestosql-connector-tpcds | Modifica i valori nel file tpcds.properties di PrestoSQL. | Not available. |
ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger. KMS | Restarts Ranger KMS Server. |
ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger. KMS | Restarts Ranger KMS Server. |
ranger-kms-env | Modifica i valori nell'ambiente RangerKMS. | Restarts Ranger KMS Server. |
ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger. KMS | Not available. |
ranger-kms-db-ca | Modifica i valori per il file CA su S3 per La mia connessione con Ranger. SQL SSL KMS | Not available. |
spark | Impostazioni EMR curate da Amazon per Apache Spark. | This property modifies spark-defaults. See actions there. |
spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. |
spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. |
spark-log4j | Modifica i valori nel file log4j.properties di Spark. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. |
sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. |
sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. |
tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. |
yarn-env | Modifica i valori nell'ambiente. YARN | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | Modifica i valori nel YARN file yarn-site.xml. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. |
zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. |
zookeeper-config | Modifica i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. |
zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. |