Rilascio 6.1.0 di Amazon EMR
Versioni delle applicazioni
In questo rilascio sono supportate le seguenti applicazioni: Flink
La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).
Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
Informazioni sulla versione dell'applicazione | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
SDK AWS per Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Delta | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Flink | 1.11.0 | 1.11.0 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Iceberg | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterEnterpriseGateway | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Livy | 0.7.0 | 0.7.0 | 0.6.0 | 0.6.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mahout | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pig | 0.17.0 | 0.17.0 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto | 0.232 | 0.232 | 0.230 | 0.230 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Spark | 3.0.0 | 3.0.0 | 2.4.4 | 2.4.4 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop | 1.4.7 | 1.4.7 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Trino (PrestoSQL) | 338 | 338 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
Note di rilascio
Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.1.0. Le modifiche sono relative alla versione 6.0.0.
Data del rilascio iniziale: 4 settembre 2020
Ultimo aggiornamento: 15 ottobre 2020
Applicazioni supportate
AWS SDK for Java versione 1.11.828
Flink versione 1.11.0
Ganglia versione 3.7.2
Hadoop versione 3.2.1-amzn-1
HBase versione 2.2.5
HBase-operator-tools 1.0.0
HCatalog versione 3.1.2-amzn-0
Hive versione 3.1.2-amzn-1
Hudi versione 0.5.2 in fase di sviluppo
Hue versione 4.7.1
JupyterHub versione 1.1.0
Livy versione 0.7.0
MXNet versione 1.6.0
Oozie versione 5.2.0
Phoenix versione 5.0.0
Presto versione 0.232
PrestoSQL versione 338
Spark versione 3.0.0-amzn-0
TensorFlow versione 2.1.0
Zeppelin versione 0.9.0-preview1
Zookeeper versione 3.4.14
Connettori e driver: DynamoDB Connector 4.14.0
Nuove funzionalità
I tipi di istanze ARM sono supportati a partire da Amazon EMR versione 5.30.0 e Amazon EMR versione 6.1.0.
I tipi di istanze per uso generico M6g sono supportati a partire dalle versioni di Amazon EMR 6.1.0 e 5.30.0. Per ulteriori informazioni, consulta Tipi di istanza supportati nella Guida alla gestione di Amazon EMR.
La caratteristica del gruppo di collocamento EC2 è supportata a partire da Amazon EMR versione 5.23.0 come opzione per i cluster con più nodi primari. Attualmente, solo i tipi di nodi primari sono supportati dalla caratteristica del gruppo di collocamento e la strategia
SPREAD
viene applicata a tali nodi primari. La strategiaSPREAD
colloca un piccolo gruppo di istanze su hardware sottostante separato per evitare la perdita di più nodi primari in caso di guasto hardware. Per ulteriori informazioni, consulta Integrazione di EMR con il gruppo di collocamento EC2 nella Guida alla gestione di Amazon EMR.Scalabilità gestita: con la versione 6.1.0 di Amazon EMR, puoi abilitare Scalabilità gestita di Amazon EMR per aumentare o diminuire automaticamente il numero di istanze o unità nel cluster in base al carico di lavoro. Amazon EMR valuta continuamente i parametri dei cluster per prendere decisioni di dimensionamento che ottimizzano i cluster in termini di costi e velocità. Il dimensionamento gestito è disponibile anche su Amazon EMR versione 5.30.0 e successive, tranne 6.0.0. Per maggiori informazioni, consulta Dimensionamento delle risorse del cluster nella Guida alla gestione di Amazon EMR.
PrestoSQL versione 338 è supportata con EMR 6.1.0. Per ulteriori informazioni, consulta Presto.
PrestoSQL è supportata solo su EMR 6.1.0 e versioni successive, non su EMR 6.0.0 o EMR 5.x.
Il nome dell'applicazione
Presto
continua ad essere utilizzato per installare PrestoDB sui cluster. Per installare PrestoSQL sui cluster, utilizza il nome dell'applicazionePrestoSQL
.È possibile installare PrestoDB o PrestoSQL, ma non è possibile installare entrambi in un singolo cluster. Se durante il tentativo di creare un cluster vengono specificati sia PrestoDB che PrestoSQL, si verifica un errore di convalida e la richiesta di creazione del cluster ha esito negativo.
PrestoSQL è supportato su entrambi i cluster single-master e muti-master. Nei cluster multi-master, è necessario un metastore Hive esterno per eseguire PrestoSQL o PrestoDB. Consulta la sezione Applicazioni supportate in un cluster EMR con più nodi primari.
Supporto per l'autenticazione automatica ECR su Apache Hadoop e Apache Spark con Docker: gli utenti di Docker possono utilizzare le immagini Docker da Docker Hub e Amazon Elastic Container Registry (Amazon ECR) per definire le dipendenze dell'ambiente e della libreria.
Consulta Configurazione di Docker ed Esecuzione di applicazioni Spark con Docker utilizzando Amazon EMR 6.x.
EMR supporta le transazioni Apache Hive ACID: Amazon EMR 6.1.0 aggiunge il supporto per le transazioni Hive ACID in modo che sia conforme alle proprietà ACID di un database. Con questa funzione, puoi eseguire operazioni
INSERT, UPDATE, DELETE,
eMERGE
nelle tabelle gestite da Hive con dati in Amazon Simple Storage Service (Amazon S3). Questa è una caratteristica chiave per casi d'uso come l'importazione dati in streaming, il riavvio dei dati, gli aggiornamenti in blocco tramite MERGE e la graduale variazione delle dimensioni. Per ulteriori informazioni, inclusi esempi di configurazione e casi d'uso, consulta Amazon EMR supporta le transazioni Apache Hive ACID.
Modifiche, miglioramenti e problemi risolti
-
Questa versione risolve i problemi di dimensionamento di Amazon EMR nei casi in cui non riesce ad aumentare/ridurre correttamente un cluster o causa errori dell'applicazione.
È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.
I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.
SPARK-29683
. È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati. YARN-9011
. È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi. È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.
È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo era dovuto al fatto che il daemon su cluster di Amazon EMR non rinnovava il ticket di Kerberos, necessario per comunicare in modo sicuro con HDFS/YARN in esecuzione sul nodo primario.
Le versioni più recenti di Amazon EMR risolvono il problema con un limite "Max open files" (Max. file aperti) sulla versione di AL2 meno recente di Amazon EMR. Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono ora una correzione permanente con un'impostazione "Max open files" (Max. file aperti).
Apache Flink non è supportata su EMR 6.0.0, ma è supportata su EMR 6.1.0 con Flink 1.11.0. Si tratta della prima versione di Flink a supportare ufficialmente Hadoop 3. Consulta Annuncio del rilascio di Apache Flink 1.11.0
. Ganglia è stato rimosso dai pacchetti EMR 6.1.0 di default.
Problemi noti
-
Riduci il limite "Max open files" (Max. file aperti) sulla versione di AL2 meno recente [corretto nelle versioni più recenti]. Rilasci di Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano sulle versioni precedenti di Amazon Linux 2 (AL2), le quali hanno un'impostazione ulimit inferiore per "Max open files (Max. file aperti)" quando i cluster Amazon EMR vengono creati con l'AMI predefinita. Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione "Max open files" (Max. file aperti). Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'AMI predefinita di Amazon EMR ha un'impostazione ulimit di default di 4096 per "Max open files" (Max. file aperti), che è inferiore al limite di file 65536 nell'ultima AMI di Amazon Linux 2. L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script dell'operazione bootstrap (BA) che regola l'impostazione ulimit durante la creazione del cluster.
Se utilizzi una versione di Amazon EMR meno recente che non ha la soluzione permanente per questo problema, la seguente soluzione alternativa consente di impostare esplicitamente l'ulimit del controller dell'istanza su un massimo di 65536 file.
Impostazione di un ulimit esplicito dalla riga di comando
Modifica
/etc/systemd/system/instance-controller.service
per aggiungere i seguenti parametri alla sezione Servizio.LimitNOFILE=65536
LimitNPROC=65536
Riavvio di InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Impostazione di un ulimit usando l'operazione di bootstrap (BA)
È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
Importante
Amazon EMR 6.1.0 e 6.2.0 includono un problema di prestazioni che può influire in modo critico su tutte le operazioni di inserimento, upsert ed eliminazione di Hudi. Se intendi utilizzare Hudi con Amazon EMR 6.1.0 o 6.2.0, contatta il supporto AWS per ottenere un RPM Hudi con patch.
L'impostazione di configurazioni di garbage collection personalizzate con
spark.driver.extraJavaOptions
espark.executor.extraJavaOptions
genera un errore di avvio del driver o dell'executor con EMR 6.1 a causa di una configurazione di garbage collection in conflitto. Con il rilascio EMR 6.1.0, è invece necessario specificare la configurazione di garbage collection Spark personalizzata per driver ed executor con le proprietàspark.driver.defaultJavaOptions
espark.executor.defaultJavaOptions
. Per maggiori informazioni, consulta Ambiente di runtime Apache Sparke Configurazione di garbage collection Spark su Amazon EMR 6.1.0. -
L'utilizzo di Pig con Oozie (e all'interno di Hue, dal momento che Hue utilizza le operazioni Oozie per eseguire gli script Pig) genera un errore che impedisce il caricamento di una libreria native-lzo. Questo messaggio di errore è informativo e non impedisce l'esecuzione di Pig.
Supporto della simultaneità di Hudi: attualmente, le scritture simultanee in una singola tabella Hudi non sono supportate. Inoltre, Hudi esegue il rollback di tutte le modifiche apportate dalle istanze di scrittura in corso prima di consentire l'avvio di una nuova istanza di scrittura. Le scritture simultanee possono interferire con questo meccanismo e introdurre condizioni di competizione, le quali possono causare il danneggiamento dei dati. È necessario assicurarsi che, come parte del flusso di lavoro di elaborazione dei dati, ci sia sempre una sola istanza di scrittura Hudi che opera su una tabella Hudi. Hudi supporta più istanze di lettura simultanee che operano sulla stessa tabella Hudi.
-
Problema noto nei cluster con più nodi primari e autenticazione Kerberos
Se esegui cluster con più nodi primari e autenticazione Kerberos nella versione 5.20.0 di Amazon EMR e successivi, è possibile che si verifichino problemi con le operazioni del cluster, quali la riduzione o l'invio di fasi, dopo che il cluster è rimasto in esecuzione per un certo periodo di tempo. Il periodo di tempo dipende dal periodo di validità del ticket Kerberos definito dall'utente. Il problema di dimensionamento verso il basso influisce sia sulle richieste di scalabilità automatica che sulle richieste esplicite di dimensionamento verso il basso inviate dall'utente. Possono essere influenzate anche le operazioni cluster aggiuntive.
Soluzione alternativa:
-
Abilita SSH come utente
hadoop
al primo nodo primario del cluster EMR con più nodi primari. -
Esegui il comando seguente per rinnovare il ticket Kerberos per l'utente
hadoop
.kinit -kt <keytab_file> <principal>
In genere, il file keytab si trova in
/etc/hadoop.keytab
e l'entità principale si presenta nella forma dihadoop/<hostname>@<REALM>
.
Nota
Questa soluzione alternativa sarà valida per il periodo di tempo in cui il ticket Kerberos è valido. La durata è di 10 ore per impostazione predefinita, ma può essere configurata dalle impostazioni Kerberos. È necessario eseguire nuovamente il comando sopra indicato una volta scaduto il ticket Kerberos.
-
Si è verificato un problema in Amazon EMR 6.1.0 che interessa i cluster che eseguono Presto. Dopo un lungo periodo di tempo (giorni), il cluster potrebbe generare errori come "su: failed to execute /bin/bash: Resource temporarily unavailable (su: impossibile eseguire /bin/bash: risorsa temporaneamente non disponibile)" o "shell request failed on channel 0 (richiesta shell non riuscita sul canale 0)". Questo problema è causato da un processo interno di Amazon EMR (InstanceController) che genera un numero eccessivo di processi leggeri (LWP) e, alla fine, fa sì che l'utente Hadoop superi il limite nproc. Ciò impedisce all'utente di aprire ulteriori processi. La soluzione a questo problema consiste nell'eseguire l'aggiornamento a EMR 6.2.0.
Versioni dei componenti
I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con emr
o aws
. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.
Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo
. CommunityVersion
-amzn-EmrVersion
inizia da 0. Ad esempio, se un componente della community open source denominato EmrVersion
myapp-component
con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come 2.2-amzn-2
.
Componente | Versione | Descrizione |
---|---|---|
aws-sagemaker-spark-sdk | 1.3.0 | SDK Spark Amazon SageMaker |
emr-ddb | 4.14.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. |
emr-goodies | 3.1.0 | Librerie utili per l'ecosistema Hadoop. |
emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. |
emr-s3-dist-cp | 2.14.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. |
emr-s3-select | 2.0.0 | Connettore di EMR S3Select |
emrfs | 2.42.0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. |
flink-client | 1.11.0 | Applicazioni e script client a riga di comando Apache Flink. |
ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. |
ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. |
ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. |
hadoop-client | 3.2.1-amzn-1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 3.2.1-amzn-1 | Servizio a livello di nodo HDFS per lo storage di blocchi. |
hadoop-hdfs-library | 3.2.1-amzn-1 | Libreria e client di riga di comando HDFS |
hadoop-hdfs-namenode | 3.2.1-amzn-1 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. |
hadoop-hdfs-journalnode | 3.2.1-amzn-1 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. |
hadoop-httpfs-server | 3.2.1-amzn-1 | Endpoint HTTP per le operazioni HDFS. |
hadoop-kms-server | 3.2.1-amzn-1 | Server di gestione delle chiavi di crittografia basato sull'API KeyProvider di Hadoop. |
hadoop-mapred | 3.2.1-amzn-1 | Librerie del motore di esecuzione MapReduce per l'esecuzione di un'applicazione MapReduce. |
hadoop-yarn-nodemanager | 3.2.1-amzn-1 | Servizio YARN per la gestione di container su un singolo nodo. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-1 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. |
hadoop-yarn-timeline-server | 3.2.1-amzn-1 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. |
hbase-hmaster | 2.2.5 | Servizio per un cluster HBase responsabile del coordinamento delle regioni e dell'esecuzione di comandi amministrativi. |
hbase-region-server | 2.2.5 | Servizio per servire una o più regioni HBase. |
hbase-client | 2.2.5 | Client di riga di comando HBase. |
hbase-rest-server | 2.2.5 | Servizio che fornisce un endpoint RESTful HTTP per HBase. |
hbase-thrift-server | 2.2.5 | Servizio che fornisce un endpoint Thrift a HBase. |
hcatalog-client | 3.1.2-amzn-2 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. |
hcatalog-server | 3.1.2-amzn-2 | Servizio che fornisce HCatalog, un livello di gestione di tabelle e storage per le applicazioni distribuite. |
hcatalog-webhcat-server | 3.1.2-amzn-2 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. |
hive-client | 3.1.2-amzn-2 | Client a riga di comando Hive. |
hive-hbase | 3.1.2-amzn-2 | Client Hive-hbase. |
hive-metastore-server | 3.1.2-amzn-2 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. |
hive-server2 | 3.1.2-amzn-2 | Servizio per l'accettazione di query Hive come richieste Web. |
hudi | 0.5.2-incubating-amzn-2 | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. |
hudi-presto | 0.5.2-incubating-amzn-2 | Libreria bundle per eseguire Presto con Hudi. |
hudi-prestosql | 0.5.2-incubating-amzn-2 | Libreria bundle per eseguire PrestoSQL con Hudi. |
hudi-spark | 0.5.2-incubating-amzn-2 | Libreria bundle per eseguire Spark con Hudi. |
hue-server | 4.7.1 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop |
jupyterhub | 1.1.0 | Server multi-utente per notebook Jupyter |
livy-server | 0.7.0-incubating | Interfaccia REST per l'interazione con Apache Spark |
nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP |
mxnet | 1.6.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. |
mariadb-server | 5.5.64+ | Server di database MariaDB. |
nvidia-cuda | 9.2.88 | Driver Nvidia e kit di strumenti Cuda |
oozie-client | 5.2.0 | Client a riga di comando Oozie. |
oozie-server | 5.2.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. |
opencv | 4.3.0 | Open Source Computer Vision Library. |
phoenix-library | 5.0.0-HBase-2.0 | Le librerie Phoenix per server e client |
phoenix-query-server | 5.0.0-HBase-2.0 | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica |
presto-coordinator | 0.232 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. |
presto-worker | 0.232 | Servizio per l'esecuzione di parti di una query. |
presto-client | 0.232 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. |
prestosql-coordinator | 338 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti prestosql-workers. |
prestosql-worker | 338 | Servizio per l'esecuzione di parti di una query. |
prestosql-client | 338 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. |
pig-client | 0.17.0 | Client a riga di comando Pig. |
r | 3.4.3 | The R Project for Statistical Computing |
ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger |
spark-client | 3.0.0-amzn-0 | Client a riga di comando Spark. |
spark-history-server | 3.0.0-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per il ciclo di vita di un'applicazione Spark completata. |
spark-on-yarn | 3.0.0-amzn-0 | Motore di esecuzione in memoria per YARN. |
spark-yarn-slave | 3.0.0-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. |
sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. |
tensorflow | 2.1.0 | Libreria software open source TensorFlow per il calcolo numerico ad alte prestazioni. |
tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. |
webserver | 2.4.41+ | Server Apache HTTP. |
zeppelin-server | 0.9.0-preview1 | Notebook basato sul Web che consente l'analisi di dati interattiva. |
zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. |
zookeeper-client | 3.4.14 | Client a riga di comando ZooKeeper. |
Classificazioni di configurazione
Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio hive-site.xml
. Per ulteriori informazioni, consulta Configurazione delle applicazioni.
Classificazioni emr-6.1.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Classificazioni | Descrizione | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-executor | Modificare i valori nel file container-executor.cfg di Hadoop YARN. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
core-site | Modifica i valori nel file core-site.xml di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
emrfs-site | Modifica le impostazioni EMRFS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-conf | Modifica le impostazione flink-conf.yaml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j | Modifica le impostazioni Flink log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j-yarn-session | Modifica le impostazioni log4j-yarn-session.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-server | Modifica la configurazione server ssl hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-client | Modifica la configurazione client ssl hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase | Impostazioni Amazon EMR per Apache HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-env | Modifica i valori nell'ambiente HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-log4j | Modifica i valori nel file hbase-log4j.properties di HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-metrics | Modificare valori nel file hadoop-metrics2-hbase.properties di HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-policy | Modifica i valori nel file hbase-policy.xml di HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-site | Modifica i valori nel file hbase-site.xml di HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-encryption-zones | Configura le zone di crittografia HDFS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-env | Modifica i valori nell'ambiente HDFS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-env | Modifica i valori nell'ambiente di HCatalog. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-jndi | Modifica i valori nel file jndi.properties di HCatalog. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-proto-hive-site | Modifica i valori nel file proto-hive-site.xml di HCatalog. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-env | Modifica i valori nell'ambiente di WebHCat HCatalog. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-log4j2 | Modifica i valori nel file log4j2.properties i WebHCat HCatalog. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-site | Modifica i valori nel file webhcat-site.xml file di HCatalog WebHCat. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive | Impostazioni Amazon EMR per Apache Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-env | Modifica i valori nell'ambiente Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-exec-log4j2 | Modifica i valori nel file hive-exec-log4j2.properties di Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-llap-daemon-log4j2 | Modifica i valori nel file llap-daemon-log4j2.properties di Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-site | Modifica i valori nel file hive-site.xml di Hive | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hue-ini | Modifica i valori nel file ini di Hue | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-env | Modifica i valori nell'ambiente HTTPFS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hudi-env | Modifica i valori nell'ambiente Hudi. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-notebook-conf | Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-hub-conf | Modifica i valori nel file jupyterhub_config.py di JupyterHubs. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-conf | Modifica i valori nel file livy.conf di Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-env | Modifica i valori nell'ambiente Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-log4j | Modifica le impostazioni Livy log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-env | Modifica i valori nell'ambiente MapReduce dell'applicazione MapReduce. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-site | Modifica i valori nel file mapred-site.xml dell'applicazione MapReduce. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-env | Modifica i valori nell'ambiente di Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-env | Change values in the Pig environment. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-properties | Modifica i valori nel file pig.properties di Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-log4j | Modifica i valori nel file log4j.properties di Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-log | Modifica i valori nel file log.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-config | Modifica i valori nel file config.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-env | Modifica i valori nel file presto-env.sh di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-node | Modifica i valori nel file node.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-log | Modifica i valori nel file log.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-config | Modifica i valori nel file config.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-env | Modifica i valori nel file presto-env.sh di Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-node | Modifica i valori nel file node.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-blackhole | Modifica i valori nel file blackhole.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-cassandra | Modifica i valori nel file cassandra.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-hive | Modifica i valori nel file hive.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-jmx | Modifica i valori nel file jmx.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-kafka | Modifica i valori nel file kafka.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-localfile | Modifica i valori nel file localfile.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-memory | Modifica i valori nel file memory.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-mongodb | Modifica i valori nel file mongodb.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-mysql | Modifica i valori nel file mysql.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-postgresql | Modifica i valori nel file postgresql.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-raptor | Modifica i valori nel file raptor.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-redis | Modifica i valori nel file redis.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-redshift | Modifica i valori nel file redshift.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-tpch | Modifica i valori nel file tpch.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
prestosql-connector-tpcds | Modifica i valori nel file tpcds.properties di PrestoSQL. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-site | Modifica i valori nel file ranger-kms-site.xml di Ranger KMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark | Impostazioni Amazon EMR per Apache Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-env | Modifica i valori nell'ambiente Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-log4j | Modifica i valori nel file log4j.properties di Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-metrics | Modifica i valori nel file metrics.properties di Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-env | Modifica i valori nell'ambiente di Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
tez-site | Modifica i valori nel file tez-site.xml file di Tez. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-env | Modifica i valori nell'ambiente YARN. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-site | Modifica i valori nel file yarn-site.xml di YARN. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-config | Modifica i valori nel file zoo.cfg di ZooKeeper. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-log4j | Modifica i valori nel file log4j.properties di ZooKeeper. |