Rilascio 6.4.0 di Amazon EMR - Amazon EMR

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Rilascio 6.4.0 di Amazon EMR

Versioni dell'applicazione 6.4.0

In questo rilascio sono supportate le seguenti applicazioni: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Trino, Zeppelin, e ZooKeeper.

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:

Informazioni sulla versione dell'applicazione
emr-6.4.0 emr-6.3.1 emr-6.3.0 emr-6.2.1
AWS SDK per Java 1.12.311,11,9771,11,9771,11,80
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Scala 2,12,102,12,102,12,102,12,10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.13.11.12.11.12.11.11.2
Ganglia3.7.23.7.23.7.23.7.2
HBase2.4.42.2.62.2.62.2.6-amzn-0
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.8.0-amzn-00.7.0-amzn-00.7.0-amzn-00.6.0-amzn-1
Hue4.9.04.9.04.9.04.8.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.02.1.02.1.02.1.0
JupyterHub1.4.11.2.21.2.21.1.0
Livy0.7.10.7.00.7.00.7.0
MXNet1.8.01.7.01.7.01.7.0
Mahout - - - -
Oozie5.2.15.2.15.2.15.2.0
Phoenix5.1.25.0.05.0.05.0.0
Pig0.17.00.17.00.17.00.17.0
Presto0,254,10,245,10,245,10,238,3
Spark3.1.23.1.13.1.13.0.1
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.4.12.4.12.4.12.3.1
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)359350350343
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3,5,73.4.143.4.143.4.14

Note di rilascio 6.4.0

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.4.0. Le modifiche sono relative alla versione 6.3.0.

Data del rilascio iniziale: 20 settembre 2021

Data di rilascio aggiornata: 21 marzo 2022

Applicazioni supportate
  • AWS SDK for Java versione 1.12.31

  • CloudWatch Sink versione 2.2.0

  • DynamoDB Connector versione 4.16.0

  • EMRFS versione 2.47.0

  • Amazon EMR Goodies versione 3.2.0

  • Amazon EMR Kinesis Connector versione 3.5.0

  • Amazon EMR Record Server versione 2.1.0

  • Amazon EMR Scripts versione 2.5.0

  • Flink versione 1.13.1

  • Ganglia versione 3.7.2

  • AWS Glue Hive Metastore Client versione 3.3.0

  • Hadoop versione 3.2.1-amzn-4

  • HBase versione 2.4.4-amzn-0

  • ase-operator-tools HB 1.1.0

  • HCatalog versione 3.1.2-amzn-5

  • Hive versione 3.1.2-amzn-5

  • Hudi versione 0.8.0-amzn-0

  • Hue versione 4.9.0

  • Java JDK versione Corretto-8.302.08.1 (build 1.8.0_302-b08)

  • JupyterHub versione 1.4.1

  • Livy versione 0.7.1-incubating

  • MXNet versione 1.8.0

  • Oozie versione 5.2.1

  • Phoenix versione 5.1.2

  • Pig versione 0.17.0

  • Presto versione 0.254.1-amzn-0

  • Trino versione 359

  • Apache Ranger KMS (crittografia trasparente multi-master) versione 2.0.0

  • ranger-plugins 2.0.1-amzn-0

  • ranger-s3-plugin 1.2.0

  • SageMaker Spark SDK versione 1.4.1

  • Scala versione 2.12.10 (VM server OpenJDK a 64 bit, Java 1.8.0_282)

  • Spark versione 3.1.2-amzn-0

  • spark-rapids 0.4.1

  • Sqoop versione 1.4.7

  • TensorFlow versione 2.4.1

  • tez versione 0.9.2

  • Zeppelin versione 0.9.0

  • Zookeeper versione 3.5.7

  • Connettori e driver: DynamoDB Connector 4.16.0

Nuove funzionalità
  • [Dimensionamento] Ottimizzazione del dimensionamento gestito dei dati di shuffle di Spark - Per Amazon EMR versioni 5.34.0 e successive e EMR 6.4.0 e successive, il dimensionamento gestito è ora consapevole dei dati di shuffle di Spark (dati che Spark ridistribuisce tra le partizioni per eseguire operazioni specifiche). Per ulteriori informazioni sulle operazioni di shuffle, consulta Utilizzo del dimensionamento gestito da EMR in Amazon EMR nella Guida alla gestione di Amazon EMR e Guida di programmazione Spark.

  • Sui cluster Amazon EMR abilitati ad Apache Ranger, puoi utilizzare Apache Spark SQL per inserire o aggiornare i dati nelle tabelle dei metastore di Apache Hive utilizzando INSERT INTO, INSERT OVERWRITE, e ALTER TABLE. Quando si utilizza ALTER TABLE con Spark SQL, una posizione di partizione deve essere la directory figlio di una posizione di tabella. Al momento Amazon EMR non supporta l'inserimento di dati in una partizione in cui la posizione della partizione è diversa da quella della tabella.

  • PrestoSQL è stato rinominato in Trino.

  • Hive: l'esecuzione di semplici query SELECT con clausola LIMIT viene accelerata interrompendo l'esecuzione della query non appena viene recuperato il numero di registri menzionati nella clausola LIMIT. Le query SELECT semplici sono query che non hanno una clausola GROUP BY/ORDER by o query che non hanno uno stadio di riduzione. Ad esempio, SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>.

Controlli di simultaneità Hudi
  • Hudi ora supporta Optimistic Concurrency Control (OCC), che può essere sfruttato con operazioni di scrittura come UPSERT e INSERT per consentire modifiche da più scrittori alla stessa tabella Hudi. Questo è livello di file OCC, quindi due commit (o scrittori) possono scrivere sulla stessa tabella, se le modifiche non sono in conflitto. Per ulteriori informazioni, consulta Controllo della concorrenza Hudi.

  • I cluster Amazon EMR hanno installato Zookeeper, che può essere sfruttato come provider di blocchi per OCC. Per semplificare l'utilizzo di questa funzione, i cluster Amazon EMR hanno le seguenti proprietà preconfigurate:

    hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider hoodie.write.lock.zookeeper.url=<EMR Zookeeper URL> hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port> hoodie.write.lock.zookeeper.base_path=/hudi

    Per abilitare OCC, è necessario configurare le seguenti proprietà con le relative opzioni di processo Hudi o a livello di cluster utilizzando l'API di configurazione Amazon EMR:

    hoodie.write.concurrency.mode=optimistic_concurrency_control hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write) hoodie.write.lock.zookeeper.lock_key=<Key to uniquely identify the Hudi table> (Table Name is a good option)
Monitoraggio Hudi: CloudWatch integrazione con Amazon per riportare Hudi Metrics
  • Amazon EMR supporta la pubblicazione di Hudi Metrics su Amazon. CloudWatch È abilitato impostando le seguenti configurazioni richieste:

    hoodie.metrics.on=true hoodie.metrics.reporter.type=CLOUDWATCH
  • Di seguito sono riportate le configurazioni Hudi opzionali che è possibile modificare:

    Impostazione Descrizione Valore

    hoodie.metrics.cloudwatch.report.period.seconds

    Frequenza (in secondi) con cui segnalare i parametri ad Amazon CloudWatch

    Il valore predefinito è 60s, il che va bene per la risoluzione predefinita di un minuto offerta da Amazon CloudWatch

    hoodie.metrics.cloudwatch.metric.prefix

    Prefisso da aggiungere a ciascun nome parametro

    Il valore di default è vuoto (nessun prefisso)

    hoodie.metrics.cloudwatch.namespace

    Spazio CloudWatch dei nomi Amazon in base al quale vengono pubblicate le metriche

    Il valore di default è Hudi

    hoodie.metrics.cloudwatch. maxDatumsPerRichiesta

    Numero massimo di riferimenti da includere in una richiesta ad Amazon CloudWatch

    Il valore predefinito è 20, che corrisponde a quello CloudWatch predefinito di Amazon

Supporto e miglioramenti delle configurazioni Amazon EMR Hudi
  • I clienti possono ora sfruttare l'API di configurazione EMR e la funzione di riconfigurazione per configurare le configurazioni Hudi a livello di cluster. Un nuovo supporto per la configurazione basato su file è stato introdotto tramite /etc/hudi/conf/hudi-defaults.conf sulla linea di altre applicazioni come Spark, Hive ecc. EMR configura alcuni valori di default per migliorare l'esperienza utente:

    hoodie.datasource.hive_sync.jdbcurl è configurato per l'URL del server Hive del cluster e non deve più essere specificato. Ciò è particolarmente utile quando si esegue un processo in modalità cluster Spark, dove in precedenza era necessario specificare l'IP principale Amazon EMR.

    — Configurazioni specifiche di HBase, utili per l'utilizzo dell'indice HBase con Hudi.

    — Configurazione specifica del provider di blocco Zookeeper, come discusso sotto il controllo della concorrenza, che semplifica l'utilizzo di Optimistic Concurrency Control (OCC).

  • Sono state introdotte ulteriori modifiche per ridurre il numero di configurazioni che devi passare e per dedurre automaticamente laddove possibile:

    — La parola chiave partitionBy può essere utilizzata per specificare la colonna della partizione.

    — Quando si abilita Hive Sync, non è più obbligatorio passare HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY. Tali valori possono essere dedotti dal nome della tabella Hudi e dal campo della partizione.

    KEYGENERATOR_CLASS_OPT_KEY non è obbligatorio passare e può essere dedotto da casi più semplici di SimpleKeyGenerator e ComplexKeyGenerator.

Avvertenze Hudi
  • Hudi non supporta l'esecuzione vettorizzata nelle tabelle Hive for Merge on Read (MoR) e Bootstrap. Ad esempio: count(*) fallisce con la tabella in tempo reale Hudi quando hive.vectorized.execution.enabled è impostato su VERO. Come soluzione alternativa, puoi disabilitare la lettura vettorizzata impostando hive.vectorized.execution.enabled a false.

  • Il supporto multi-writer non è compatibile con la caratteristica bootstrap Hudi.

  • Flink Streamer e Flink SQL sono caratteristiche sperimentali di questa versione. Queste caratteristiche non sono consigliate per l'uso nelle distribuzioni di produzione.

Modifiche, miglioramenti e problemi risolti

Questa versione risolve i problemi di dimensionamento di Amazon EMR nei casi in cui non riesce ad aumentare/ridurre correttamente un cluster o causa errori dell'applicazione.

  • In precedenza, il riavvio manuale del gestore delle risorse su un cluster multi-master provocava il ricaricamento, da parte dei daemon su cluster di Amazon EMR come Zookeeper, di tutti i nodi precedentemente disattivati o persi nel file znode di Zookeeper. Ciò causava il superamento dei limiti predefiniti in determinate situazioni. Ora Amazon EMR rimuove i record dei nodi disattivati o persi più vecchi di un'ora dal file Zookeeper e i limiti interni sono stati aumentati.

  • È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.

  • I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.

  • SPARK-29683. È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.

  • YARN-9011. È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.

  • È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.

  • È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo era dovuto al fatto che il daemon su cluster di Amazon EMR non rinnovava il ticket di Kerberos, necessario per comunicare in modo sicuro con HDFS/YARN in esecuzione sul nodo primario.

  • Configurazione di un cluster per risolvere i problemi di prestazioni di Apache YARN Timeline Server versione 1 e 1.5

    Le versioni 1 e 1.5 di Apache YARN Timeline Server possono causare problemi di prestazioni con cluster EMR molto attivi e di grandi dimensioni, in particolare con yarn.resourcemanager.system-metrics-publisher.enabled=true, che è l'impostazione predefinita in Amazon EMR. Un YARN Timeline Server v2 open source risolve il problema di prestazioni relativo alla scalabilità di YARN Timeline Server.

    Altre soluzioni alternative per questo problema includono:

    • Configurazione di yarn.resourcemanager. system-metrics-publisher.enabled=false in yarn-site.xml.

    • L'abilitazione della correzione per questo problema durante la creazione di un cluster, come descritto di seguito.

    I seguenti rilasci di Amazon EMR contengono una correzione per questo problema di prestazioni di YARN Timeline Server.

    EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1 e 6.4.x

    Per abilitare la correzione su una delle versioni di Amazon EMR sopra specificate, imposta queste proprietà su true in un file JSON di configurazioni che viene passato utilizzando il parametro del comando aws emr create-cluster: --configurations file://./configurations.json. Oppure abilita la correzione utilizzando l'interfaccia utente della console di riconfigurazione.

    Esempio del contenuto del file configurations.json:

    [ { "Classification": "yarn-site", "Properties": { "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true", "yarn.resourcemanager.system-metrics-publisher.enabled": "true" }, "Configurations": [] } ]
  • I server HttpFS e WebHDFS sono disabilitati per impostazione predefinita. Puoi abilitare nuovamente WebHDFS utilizzando la configurazione di Hadoop, dfs.webhdfs.enabled. Il server HttpFS può essere avviato utilizzando sudo systemctl start hadoop-httpfs.

  • Il protocollo HTTPS ora è abilitato per impostazione predefinita per i repository Amazon Linux. Se utilizzi una policy Amazon S3 VPCE per limitare l'accesso a specifici bucket, devi aggiungere il nuovo ARN del bucket Amazon Linux arn:aws:s3:::amazonlinux-2-repos-$region/* alla tua policy (sostituisci $region con la Regione in cui si trova l'endpoint). Per ulteriori informazioni, consulta questo argomento nei forum di discussione. AWS Annuncio: Amazon Linux 2 ora supporta la possibilità di utilizzare HTTPS durante la connessione ai repository dei pacchetti .

  • Hive: le prestazioni delle query di scrittura sono migliorate abilitando l'uso di una directory Scratch su HDFS per l'ultimo processo. I dati temporanei per il processo finale vengono scritti su HDFS anziché su Amazon S3 e le prestazioni sono migliorate perché i dati vengono spostati da HDFS alla posizione finale della tabella (Amazon S3) anziché tra i dispositivi Amazon S3.

  • Hive: miglioramento del tempo di compilazione delle query fino a 2,5 volte con Glue metastore Partition Pruning.

  • Per impostazione predefinita, quando le FDU integrate vengono passate da Hive al Hive Metastore Server, solo un sottoinsieme di tali FDU incorporati viene passato al Glue Metastore poiché Glue supporta solo operatori di espressioni limitate. Se hai impostato hive.glue.partition.pruning.client=true, quindi tutta la eliminazione delle partizioni avviene sul lato client. Se hai impostato hive.glue.partition.pruning.server=true, quindi tutta la eliminazione delle partizioni avviene sul lato server.

Problemi noti
  • Le query Hue non funzionano in Amazon EMR 6.4.0 perché il server HttpFS di Apache Hadoop è disabilitato per impostazione predefinita. Per utilizzare Hue su Amazon EMR 6.4.0, avvia manualmente il server HttpFS sul nodo primario di Amazon EMR utilizzando sudo systemctl start hadoop-httpfs oppure utilizza una fase di Amazon EMR.

  • La caratteristica di Amazon EMR Notebooks utilizzata con la rappresentazione utente di Livy non funziona perché HttpFS è disabilitato per impostazione predefinita. In questo caso, EMR Notebooks non può connettersi al cluster in cui è abilitata la rappresentazione di Livy. La soluzione alternativa consiste nell'avviare il server HttpFS prima di connettere EMR Notebooks al cluster utilizzando sudo systemctl start hadoop-httpfs.

  • In Amazon EMR versione 6.4.0, Phoenix non supporta il componente dei connettori Phoenix.

  • Per utilizzare le operazioni Spark con Apache Oozie, devi aggiungere la seguente configurazione al tuo file workflow.xml Oozie. In caso contrario, diverse librerie critiche come Hadoop e EMRFS non saranno presenti nella classpath degli esecutori Spark lanciati da Oozie.

    <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  • Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:

    • Due o più partizioni vengono scansionate dalla stessa tabella.

    • Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio s3://bucket/table/p=a è un prefisso di s3://bucket/table/p=a b.

    • Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere / (U+002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U+0020) che compare tra a e b in s3://bucket/table/p=a b. Tieni presente che esistono altri 14 caratteri non di controllo: !"#$%&‘()*+,-. Per ulteriori informazioni, consulta la sezione UTF-8 encoding table and Unicode characters (Tabella di codifica UTF-8 e caratteri Unicode).

    Per ovviare a questo problema, imposta la configurazione di spark.sql.sources.fastS3PartitionDiscovery.enabled su false nella classificazione di spark-defaults.

Versioni dei componenti 6.4.0

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con emr o aws. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo CommunityVersion-amzn-EmrVersion. EmrVersion inizia da 0. Ad esempio, se un componente della community open source denominato myapp-component con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come 2.2-amzn-2.

Componente Versione Descrizione
aws-sagemaker-spark-sdk1.4.1 SageMaker SDK Amazon Spark
emr-ddb4.16.0Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop.
emr-goodies3.2.0Librerie utili per l'ecosistema Hadoop.
emr-kinesis3.5.0Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop.
emr-notebook-env1.3.0Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter
emr-s3-dist-cp2.18.0Applicazione di copia distribuita ottimizzata per Amazon S3.
emr-s3-select2.1.0Connettore di EMR S3Select
emrfs2,47,0Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop.
flink-client1.13.1Applicazioni e script client a riga di comando Apache Flink.
flink-jobmanager-config1.13.1Gestione delle risorse sui nodi EMR per Apache Flink. JobManager
ganglia-monitor3.7.2Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia.
ganglia-metadata-collector3.7.2Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia.
ganglia-web3.7.1Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia.
hadoop-client3.2.1-amzn-4Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode3.2.1-amzn-4Servizio a livello di nodo HDFS per lo storage di blocchi.
hadoop-hdfs-library3.2.1-amzn-4Libreria e client di riga di comando HDFS
hadoop-hdfs-namenode3.2.1-amzn-4Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi.
hadoop-hdfs-journalnode3.2.1-amzn-4Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA.
hadoop-httpfs-server3.2.1-amzn-4Endpoint HTTP per le operazioni HDFS.
hadoop-kms-server3.2.1-amzn-4Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider
hadoop-mapred3.2.1-amzn-4MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce
hadoop-yarn-nodemanager3.2.1-amzn-4Servizio YARN per la gestione di container su un singolo nodo.
hadoop-yarn-resourcemanager3.2.1-amzn-4Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite.
hadoop-yarn-timeline-server3.2.1-amzn-4Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN.
hbase-hmaster2.4.4-amzn-0Servizio per un cluster HBase responsabile del coordinamento delle regioni e dell'esecuzione di comandi amministrativi.
hbase-region-server2.4.4-amzn-0Servizio per servire una o più regioni HBase.
hbase-client2.4.4-amzn-0Client di riga di comando HBase.
hbase-rest-server2.4.4-amzn-0Servizio che fornisce un endpoint RESTful HTTP per HBase.
hbase-thrift-server2.4.4-amzn-0Servizio che fornisce un endpoint Thrift a HBase.
hcatalog-client3.1.2-amzn-5Client a riga di comando "hcat" per la manipolazione del server hcatalog.
hcatalog-server3.1.2-amzn-5Servizio che fornisce HCatalog, un livello di gestione di tabelle e storage per le applicazioni distribuite.
hcatalog-webhcat-server3.1.2-amzn-5Endpoint HTTP che fornisce un'interfaccia REST a HCatalog.
hive-client3.1.2-amzn-5Client a riga di comando Hive.
hive-hbase3.1.2-amzn-5Client Hive-hbase.
hive-metastore-server3.1.2-amzn-5Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop.
hive-server23.1.2-amzn-5Servizio per l'accettazione di query Hive come richieste Web.
hudi0.8.0-amzn-0Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza.
hudi-presto0.8.0-amzn-0Libreria bundle per eseguire Presto con Hudi.
hudi-trino0.8.0-amzn-0Libreria bundle per eseguire Trino con Hudi.
hudi-spark0.8.0-amzn-0Libreria bundle per eseguire Spark con Hudi.
hue-server4.9.0Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop
jupyterhub1.4.1Server multi-utente per notebook Jupyter
livy-server0.7.1-incubatingInterfaccia REST per l'interazione con Apache Spark
nginx1.12.1nginx [motore x] è un server proxy inverso e HTTP
mxnet1.8.0Una libreria flessibile, scalabile ed efficiente per il deep learning.
mariadb-server5.5.68+Server di database MariaDB.
nvidia-cuda10,1243Driver Nvidia e kit di strumenti Cuda
oozie-client5.2.1Client a riga di comando Oozie.
oozie-server5.2.1Servizio per l'accettazione delle richieste di flusso di lavoro Oozie.
opencv4.5.0Open Source Computer Vision Library.
phoenix-library5.1.2Le librerie Phoenix per server e client
phoenix-query-server5.1.2Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica
presto-coordinator0.254.1-amzn-0Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker.
presto-worker0.254.1-amzn-0Servizio per l'esecuzione di parti di una query.
presto-client0.254.1-amzn-0Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato.
trino-coordinator359Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers.
trino-worker359Servizio per l'esecuzione di parti di una query.
trino-client359Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato.
pig-client0.17.0Client a riga di comando Pig.
r40,2The R Project for Statistical Computing
ranger-kms-server2.0.0Sistema di gestione delle chiavi Apache Ranger
spark-client3.1.2-amzn-0Client a riga di comando Spark.
spark-history-server3.1.2-amzn-0Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata.
spark-on-yarn3.1.2-amzn-0Motore di esecuzione in memoria per YARN.
spark-yarn-slave3.1.2-amzn-0Librerie Apache Spark necessarie per gli slave YARN.
spark-rapids04.1Plugin Nvidia Spark RAPIDS che accelera Apache Spark con GPU.
sqoop-client1.4.7Client a riga di comando Apache Sqoop.
tensorflow2.4.1TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni.
tez-on-yarn0.9.2L'applicazione e le librerie tez YARN.
webserver2.4.41+Server Apache HTTP.
zeppelin-server0.9.0Notebook basato sul Web che consente l'analisi di dati interattiva.
zookeeper-server3.5.7Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo.
zookeeper-client3,5,7ZooKeeper client a riga di comando.

Classificazioni di configurazione 6.4.0

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio hive-site.xml. Per ulteriori informazioni, consulta Configurazione delle applicazioni.

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta Riconfigurazione di un gruppo di istanze in un cluster in esecuzione.

Classificazioni emr-6.4.0
Classificazioni Descrizione Operazioni di riconfigurazione

capacity-scheduler

Modifica i valori nel file capacity-scheduler.xml di Hadoop.

Restarts the ResourceManager service.

container-executor

Modificare i valori nel file container-executor.cfg di Hadoop YARN.

Not available.

container-log4j

Modifica i valori nel file container-log4j.properties di Hadoop YARN.

Not available.

core-site

Modifica i valori nel file core-site.xml di Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Modifica le impostazioni relative a docker.

Not available.

emrfs-site

Modifica le impostazioni EMRFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Modifica le impostazione flink-conf.yaml.

Restarts Flink history server.

flink-log4j

Modifica le impostazioni Flink log4j.properties.

Restarts Flink history server.

flink-log4j-session

Modifica le impostazioni Flink log4j-session.properties per la sessione Kubernetes/Yarn.

Restarts Flink history server.

flink-log4j-cli

Modifica le impostazioni Flink log4j-cli.properties.

Restarts Flink history server.

hadoop-env

Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Modifica i valori nel file log4j.properties di Hadoop.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Modifica la configurazione server ssl hadoop

Not available.

hadoop-ssl-client

Modifica la configurazione client ssl hadoop

Not available.

hbase

Impostazioni Amazon EMR per Apache HBase.

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Modifica i valori nell'ambiente HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Modifica i valori nel file hbase-log4j.properties di HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Modificare valori nel file hadoop-metrics2-hbase.properties di HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Modifica i valori nel file hbase-policy.xml di HBase.

Not available.

hbase-site

Modifica i valori nel file hbase-site.xml di HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Configura le zone di crittografia HDFS.

This classification should not be reconfigured.

hdfs-env

Modifica i valori nell'ambiente HDFS.

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

Modifica i valori nel file hdfs-site.xml di HDFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Modifica i valori nell'ambiente di HCatalog.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Modifica i valori nel file jndi.properties di HCatalog.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Modifica i valori nel proto-hive-site file .xml di HCatalog.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Modifica i valori nell'ambiente di WebHCat HCatalog.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

Modifica i valori nel file log4j2.properties i WebHCat HCatalog.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

Modifica i valori nel file webhcat-site.xml file di HCatalog WebHCat.

Restarts Hive WebHCat server.

hive

Impostazioni Amazon EMR per Apache Hive.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Modifica i valori nel file beeline-log4j2.properties di Hive.

Not available.

hive-parquet-logging

Modifica i valori nel file parquet-logging.properties di Hive.

Not available.

hive-env

Modifica i valori nell'ambiente Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Modifica i valori nel file 4j2.properties di Hive. hive-exec-log

Not available.

hive-llap-daemon-log4j2

Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log

Not available.

hive-log4j2

Modifica i valori nel file hive-log4j2.properties di Hive.

Not available.

hive-site

Modifica i valori nel file hive-site.xml di Hive

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Modifica i valori nel file hiveserver2-site.xml di Hive Server2

Not available.

hue-ini

Modifica i valori nel file ini di Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Modifica i valori nell'ambiente HTTPFS.

Restarts Hadoop Httpfs service.

httpfs-site

Modifica i valori nel file httpfs-site.xml di Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Modifica i valori nel file kms-acls.xml di Hadoop.

Not available.

hadoop-kms-env

Modifica i valori nell'ambiente Hadoop KMS.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

Modifica i valori nel file kms-log4j.properties di Hadoop.

Not available.

hadoop-kms-site

Modifica i valori nel file kms-site.xml di Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Modifica i valori nell'ambiente Hudi.

Not available.

hudi-defaults

Modifica i valori nel file hudi-defaults.conf di Hudi.

Not available.

jupyter-notebook-conf

Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook.

Not available.

jupyter-hub-conf

Cambia i valori nel file jupyterhub_config.py JupyterHubs.

Not available.

jupyter-s3-conf

Configura la persistenza di S3 del notebook Jupyter.

Not available.

jupyter-sparkmagic-conf

Modifica i valori nel file config.json di Sparkmagic.

Not available.

livy-conf

Modifica i valori nel file livy.conf di Livy.

Restarts Livy Server.

livy-env

Modifica i valori nell'ambiente Livy.

Restarts Livy Server.

livy-log4j

Modifica le impostazioni Livy log4j.properties.

Restarts Livy Server.

mapred-env

Modifica i valori nell'ambiente dell' MapReduce applicazione.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Modifica i valori nell'ambiente di Oozie.

Restarts Oozie.

oozie-log4j

Modifica i valori nel file oozie-log4j.properties di Oozie.

Restarts Oozie.

oozie-site

Modifica i valori nel file oozie-site.xml di Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix.

Not available.

phoenix-hbase-site

Modifica i valori nel file hbase-site.xml di Phoenix.

Not available.

phoenix-log4j

Modifica i valori nel file log4j.properties di Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix.

Not available.

pig-env

Change values in the Pig environment.

Not available.

pig-properties

Modifica i valori nel file pig.properties di Pig.

Restarts Oozie.

pig-log4j

Modifica i valori nel file log4j.properties di Pig.

Not available.

presto-log

Modifica i valori nel file log.properties di Presto.

Restarts Presto-Server (for PrestoDB)

presto-config

Modifica i valori nel file config.properties di Presto.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Modifica i valori nel file password-authenticator.properties di Presto.

Not available.

presto-env

Modifica i valori nel file presto-env.sh di Presto.

Restarts Presto-Server (for PrestoDB)

presto-node

Modifica i valori nel file node.properties di Presto.

Not available.

presto-connector-blackhole

Modifica i valori nel file blackhole.properties di Presto.

Not available.

presto-connector-cassandra

Modifica i valori nel file cassandra.properties di Presto.

Not available.

presto-connector-hive

Modifica i valori nel file hive.properties di Presto.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Modifica i valori nel file jmx.properties di Presto.

Not available.

presto-connector-kafka

Modifica i valori nel file kafka.properties di Presto.

Not available.

presto-connector-localfile

Modifica i valori nel file localfile.properties di Presto.

Not available.

presto-connector-memory

Modifica i valori nel file memory.properties di Presto.

Not available.

presto-connector-mongodb

Modifica i valori nel file mongodb.properties di Presto.

Not available.

presto-connector-mysql

Modifica i valori nel file mysql.properties di Presto.

Not available.

presto-connector-postgresql

Modifica i valori nel file postgresql.properties di Presto.

Not available.

presto-connector-raptor

Modifica i valori nel file raptor.properties di Presto.

Not available.

presto-connector-redis

Modifica i valori nel file redis.properties di Presto.

Not available.

presto-connector-redshift

Modifica i valori nel file redshift.properties di Presto.

Not available.

presto-connector-tpch

Modifica i valori nel file tpch.properties di Presto.

Not available.

presto-connector-tpcds

Modifica i valori nel file tpcds.properties di Presto.

Not available.

trino-log

Modifica i valori nel file log.properties di Trino.

Restarts Trino-Server (for Trino)

trino-config

Modifica i valori nel file config.properties di Trino.

Restarts Trino-Server (for Trino)

trino-password-authenticator

Modifica i valori nel file password-authenticator.properties di Trino.

Restarts Trino-Server (for Trino)

trino-env

Modifica i valori nel file trino-env.sh di Trino.

Restarts Trino-Server (for Trino)

trino-node

Modifica i valori nel file node.properties di Trino.

Not available.

trino-connector-blackhole

Modifica i valori nel file blackhole.properties di Trino.

Not available.

trino-connector-cassandra

Modifica i valori nel file cassandra.properties di Trino.

Not available.

trino-connector-hive

Modifica i valori nel file hive.properties di Trino.

Restarts Trino-Server (for Trino)

trino-connector-jmx

Modifica i valori nel file jmx.properties di Trino.

Not available.

trino-connector-kafka

Modifica i valori nel file kafka.properties di Trino.

Not available.

trino-connector-localfile

Modifica i valori nel file localfile.properties di Trino.

Not available.

trino-connector-memory

Modifica i valori nel file memory.properties di Trino.

Not available.

trino-connector-mongodb

Modifica i valori nel file mongodb.properties di Trino.

Not available.

trino-connector-mysql

Modifica i valori nel file mysql.properties di Trino.

Not available.

trino-connector-postgresql

Modifica i valori nel file postgresql.properties di Trino.

Not available.

trino-connector-raptor

Modifica i valori nel file raptor.properties di Trino.

Not available.

trino-connector-redis

Modifica i valori nel file redis.properties di Trino.

Not available.

trino-connector-redshift

Modifica i valori nel file redshift.properties di Trino.

Not available.

trino-connector-tpch

Modifica i valori nel file tpch.properties di Trino.

Not available.

trino-connector-tpcds

Modifica i valori nel file tpcds.properties di Trino.

Not available.

ranger-kms-dbks-site

Modifica i valori nel file dbks-site.xml di Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-site

Modifica i valori nel ranger-kms-site file.xml di Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-env

Modifica i valori nell'ambiente Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-log4j

Modifica i valori nel file kms-log4j.properties di Ranger KMS.

Not available.

ranger-kms-db-ca

Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS.

Not available.

spark

Impostazioni Amazon EMR per Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Modifica i valori nel file spark-defaults.conf di Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Modifica i valori nell'ambiente Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Modifica i valori nel file hive-site.xml di Spark

Not available.

spark-log4j

Modifica i valori nel file log4j.properties di Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Modifica i valori nel file metrics.properties di Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Modifica i valori nell'ambiente di Sqoop.

Not available.

sqoop-oraoop-site

Modifica i valori nel file oraoop-site.xml di Sqoop OraOop.

Not available.

sqoop-site

Modifica i valori nel file sqoop-site.xml di Sqoop.

Not available.

tez-site

Modifica i valori nel file tez-site.xml file di Tez.

Restart Oozie and HiveServer2.

yarn-env

Modifica i valori nell'ambiente YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Modifica i valori nel file yarn-site.xml di YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Modifica i valori nell'ambiente Zeppelin.

Restarts Zeppelin.

zeppelin-site

Modifica le impostazioni di configurazione in zeppelin-site.xml.

Restarts Zeppelin.

zookeeper-config

Cambia i valori nel ZooKeeper file zoo.cfg.

Restarts Zookeeper server.

zookeeper-log4j

Modifica i valori nel file ZooKeeper log4j.properties.

Restarts Zookeeper server.