Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Amazon EMR versione 5.14.0
Versioni dell'applicazione 5.14.0
In questa versione sono supportate le seguenti applicazioni: Flink
La tabella seguente elenca le versioni delle applicazioni disponibili in questa versione di Amazon EMR e le versioni delle applicazioni nelle tre EMR versioni precedenti di Amazon (se applicabile).
Per una cronologia completa delle versioni delle applicazioni per ogni versione di AmazonEMR, consulta i seguenti argomenti:
emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | |
---|---|---|---|---|
AWS SDK per Java | 1.11.297 | 1,11,297 | 1,11,297 | 1,11,267 |
Python | 2.7, 3.4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 |
Scala | 2.11,8 | 211,8 | 211,8 | 211,8 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 |
HCatalog | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 |
Hadoop | 28.3 | 28.3 | 28.3 | 28.3 |
Hive | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 |
Hudi | - | - | - | - |
Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | 0.8.1 | - | - | - |
Livy | 0,40 | 0,40 | 0,40 | 0,40 |
MXNet | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 |
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 |
Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 |
Phoenix | 4.13.0 | 4.13.0 | 4.13.0 | 4.13.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.194 | 0.194 | 0.194 | 0.188 |
Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.2.1 |
Sqoop | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 |
TensorFlow | - | - | - | - |
Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 |
Torino (Presto) SQL | - | - | - | - |
Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 |
ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 |
Note di rilascio 5.14.0
Le seguenti note di rilascio includono informazioni per la EMR versione 5.14.0 di Amazon. Le modifiche sono relative alla versione 5.13.0.
Data del rilascio iniziale: 4 giugno 2018
Aggiornamenti
Aggiornato ad Apache Flink 1.4.2
Apache aggiornato alla versione 1.1.0 MXnet
Apache Sqoop aggiornato alla versione 1.4.7
Nuove funzionalità
Supporto aggiunto. JupyterHub Per ulteriori informazioni, consulta JupyterHub.
Modifiche, miglioramenti e problemi risolti
EMRFS
La userAgent stringa nelle richieste ad Amazon S3 è stata aggiornata per contenere le informazioni sull'utente e sul gruppo del principale invocante. Può essere usato con AWS CloudTrail i log per un tracciamento più completo delle richieste.
HBase
Incluso HBASE-20447
, che risolve un problema che potrebbe causare problemi di cache, in particolare con le regioni divise.
-
MXnet
Aggiunte librerie OpenCV.
Spark
-
Quando Spark scrive file Parquet in una posizione Amazon S3 EMRFS utilizzando, FileOutputCommitter l'algoritmo è stato aggiornato per utilizzare la versione 2 anziché la versione 1. In questo modo viene ridotta la quantità di ridenominazioni, con un conseguente miglioramento delle prestazioni delle applicazioni. Questa modifica non influisce su:
-
Applicazioni diverse da Spark.
-
Applicazioni che scrivono su altri file system, ad esempio HDFS (che utilizzano ancora la versione 1 di FileOutputCommitter).
-
Applicazioni che utilizzano altri formati di output, come testo o csv, che utilizzano già la scrittura EMRFS diretta.
-
-
Problemi noti
-
JupyterHub
-
L'utilizzo di classificazioni di configurazione per configurare JupyterHub singoli notebook Jupyter durante la creazione di un cluster non è supportato. Modifica manualmente il file jupyterhub_config.py e i file jupyter_notebook_config.py per ogni utente. Per ulteriori informazioni, consulta Configurazione JupyterHub.
-
JupyterHub non riesce ad avviarsi su cluster all'interno di una sottorete privata, con esito negativo con il messaggio.
Error: ENOENT: no such file or directory, open '/etc/jupyter/conf/server.crt'
Questo problema è causato da un errore nello script che genera certificati autofirmati. Utilizza la seguente soluzione alternativa per generare certificati autofirmati. Tutti i comandi vengono eseguiti mentre si è connessi al nodo primario.Copia lo script di generazione del certificato dal container al nodo primario:
sudo docker cp jupyterhub:/tmp/gen_self_signed_cert.sh ./
Utilizza un editor di testo per intervenire sulla riga 23 modificando il nome di host pubblico nel nome di host locale come illustrato di seguito:
local
hostname=$(curl -s $EC2_METADATA_SERVICE_URI/local
-hostname)Esegui lo script per generare certificati autofirmati:
sudo bash ./gen_self_signed_cert.sh
Sposta i file di certificato generati dallo script nella directory
/etc/jupyter/conf/
:sudo mv /tmp/server.crt /tmp/server.key /etc/jupyter/conf/
È possibile verificare che
tail
iljupyter.log
file sia stato JupyterHub riavviato e restituisca un codice di risposta 200. Per esempio:tail -f /var/log/jupyter/jupyter.log
Questo dovrebbe restituire una risposta simile alla seguente:
# [I 2018-06-14 18:56:51.356 JupyterHub app:1581] JupyterHub is now running at https://:9443/ # 19:01:51.359 - info: [ConfigProxy] 200 GET /api/routes
-
-
Dopo il riavvio del nodo primario o il riavvio del controller di istanza, le CloudWatch metriche non verranno raccolte e la funzionalità di ridimensionamento automatico non sarà disponibile nelle EMR versioni Amazon 5.14.0, 5.15.0 o 5.16.0. Questo problema è stato risolto in Amazon EMR 5.17.0.
Versioni dei componenti 5.14.0
I componenti che Amazon EMR installa con questa versione sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono esclusivi di Amazon EMR e vengono installati per processi e funzionalità di sistema. Questi solitamente iniziano con emr
o aws
. I pacchetti di applicazioni Big Data nella EMR versione più recente di Amazon sono in genere l'ultima versione disponibile nella community. Rendiamo disponibili le versioni per la community su Amazon EMR il più rapidamente possibile.
Alcuni componenti di Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo
. CommunityVersion
-amzn-EmrVersion
inizia da 0. Ad esempio, se il componente della community open source denominato EmrVersion
myapp-component
con la versione 2.2 è stato modificato tre volte per essere incluso in diverse EMR versioni di Amazon, la sua versione di rilascio è elencata come2.2-amzn-2
.
Componente | Versione | Descrizione |
---|---|---|
aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK |
emr-ddb | 4.5.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. |
emr-goodies | 2.4.0 | Librerie utili per l'ecosistema Hadoop. |
emr-kinesis | 3.4.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. |
emr-s3-dist-cp | 2.10.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. |
emrfs | 2.23.0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. |
flink-client | 1.4.2 | Applicazioni e script client a riga di comando Apache Flink. |
ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. |
ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. |
ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. |
hadoop-client | 2.8.3-amzn-1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 2.8.3-amzn-1 | HDFSservizio a livello di nodo per l'archiviazione di blocchi. |
hadoop-hdfs-library | 2.8.3-amzn-1 | HDFSclient e libreria da riga di comando |
hadoop-hdfs-namenode | 2.8.3-amzn-1 | HDFSservizio per tracciare i nomi dei file e le posizioni dei blocchi. |
hadoop-httpfs-server | 2.8.3-amzn-1 | HTTPendpoint per le HDFS operazioni. |
hadoop-kms-server | 2.8.3-amzn-1 | Server di gestione delle chiavi crittografiche basato su Hadoop. KeyProvider API |
hadoop-mapred | 2.8.3-amzn-1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce |
hadoop-yarn-nodemanager | 2.8.3-amzn-1 | YARNservizio per la gestione dei contenitori su un singolo nodo. |
hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | YARNservizio per l'allocazione e la gestione delle risorse del cluster e delle applicazioni distribuite. |
hadoop-yarn-timeline-server | 2.8.3-amzn-1 | Servizio per il recupero di informazioni correnti e storiche per le applicazioni. YARN |
hbase-hmaster | 1.4.2 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. |
hbase-region-server | 1.4.2 | Servizio per servire una o più HBase regioni. |
hbase-client | 1.4.2 | HBaseclient da riga di comando. |
hbase-rest-server | 1.4.2 | Servizio che fornisce un RESTful HTTP endpoint per. HBase |
hbase-thrift-server | 1.4.2 | Servizio che fornisce un endpoint Thrift a. HBase |
hcatalog-client | 2.3.2-amzn-2 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. |
hcatalog-server | 2.3.2-amzn-2 | Fornitura di serviziHCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. |
hcatalog-webhcat-server | 2.3.2-amzn-2 | HTTPendpoint che fornisce un'RESTinterfaccia a. HCatalog |
hive-client | 2.3.2-amzn-2 | Client a riga di comando Hive. |
hive-hbase | 2.3.2-amzn-2 | Client Hive-hbase. |
hive-metastore-server | 2.3.2-amzn-2 | Servizio per l'accesso al metastore Hive, un archivio semantico che archivia i metadati per le operazioni su Hadoop. SQL |
hive-server2 | 2.3.2-amzn-2 | Servizio per l'accettazione di query Hive come richieste Web. |
hue-server | 4.1.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop |
jupyterhub | 0.8.1 | Server multi-utente per notebook Jupyter |
livy-server | 0.4.0-incubating | RESTinterfaccia per interagire con Apache Spark |
mahout-client | 0.13.0 | Librerie per Machine Learning. |
mxnet | 1.1.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. |
mysql-server | 5.5.54+ | Il mio server SQL di database. |
nvidia-cuda | 9.1.85 | Driver Nvidia e kit di strumenti Cuda |
oozie-client | 4.3.0 | Client a riga di comando Oozie. |
oozie-server | 4.3.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. |
opencv | 3.4.0 | Open Source Computer Vision Library. |
phoenix-library | 4.13.0- -1,4 HBase | Le librerie Phoenix per server e client |
phoenix-query-server | 4.13.0- -1,4 HBase | Un server leggero che fornisce JDBC l'accesso, i buffer di protocollo e l'accesso ai JSON formati ad Avatica API |
presto-coordinator | 0.194 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. |
presto-worker | 0.194 | Servizio per l'esecuzione di parti di una query. |
pig-client | 0.17.0 | Client a riga di comando Pig. |
r | 3.4.1 | The R Project for Statistical Computing |
spark-client | 2.3.0 | Client a riga di comando Spark. |
spark-history-server | 2.3.0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. |
spark-on-yarn | 2.3.0 | Motore di esecuzione in memoria per. YARN |
spark-yarn-slave | 2.3.0 | Librerie Apache Spark necessarie agli slave. YARN |
sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. |
tez-on-yarn | 0.8.4 | L'applicazione e le librerie tezYARN. |
webserver | 2.4.25+ | Server ApacheHTTP. |
zeppelin-server | 0.7.3 | Notebook basato sul Web che consente l'analisi di dati interattiva. |
zookeeper-server | 3.4.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. |
zookeeper-client | 3.4.10 | ZooKeeper client a riga di comando. |
Classificazioni di configurazione 5.14.0
Le classificazioni di configurazione consentono di personalizzare le applicazioni. Questi spesso corrispondono a un XML file di configurazione per l'applicazione, ad esempiohive-site.xml
. Per ulteriori informazioni, consulta Configurazione delle applicazioni.
Classificazioni | Descrizione |
---|---|
capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. |
container-log4j | Modifica i valori nel file container-log4j.properties YARN di Hadoop. |
core-site | Modifica i valori nel file core-site.xml di Hadoop. |
emrfs-site | EMRFSModificare le impostazioni. |
flink-conf | Modifica le impostazione flink-conf.yaml. |
flink-log4j | Modifica le impostazioni Flink log4j.properties. |
flink-log4j-yarn-session | Modificare le impostazioni di Flink log4 j-yarn-session .properties. |
flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. |
hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. |
hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. |
hadoop-ssl-server | Modifica la configurazione server ssl hadoop |
hadoop-ssl-client | Modifica la configurazione client ssl hadoop |
hbase | Impostazioni EMR curate da Amazon per Apache. HBase |
hbase-env | Modifica i valori nell'ambienteHBase. |
hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. |
hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase |
hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. |
hbase-site | Cambia i valori nel HBase file hbase-site.xml. |
hdfs-encryption-zones | Configura le zone di HDFS crittografia. |
hdfs-site | Modifica i valori in HDFS's hdfs-site.xml. |
hcatalog-env | Cambia i valori nell'HCatalogambiente. |
hcatalog-server-jndi | Modifica i valori in HCatalog jndi.properties. |
hcatalog-server-proto-hive-site | Cambia i valori nel file .xmlHCatalog. proto-hive-site |
hcatalog-webhcat-env | Cambia i valori nell'ambiente ebHCat di HCatalog W. |
hcatalog-webhcat-log4j2 | Modifica i valori in HCatalog ebHCat log4j2.properties di W. |
hcatalog-webhcat-site | Modifica i valori nel file webhcat-site.xml di HCatalog W. ebHCat |
hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. |
hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. |
hive-env | Modifica i valori nell'ambiente Hive. |
hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. |
hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log |
hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. |
hive-site | Modifica i valori nel file hive-site.xml di Hive |
hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 |
hue-ini | Modifica i valori nel file ini di Hue |
httpfs-env | Cambia i valori nell'ambiente. HTTPFS |
httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. |
hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. |
hadoop-kms-env | Modifica i valori nell'ambiente Hadoop. KMS |
hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. |
hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. |
jupyter-notebook-conf | Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook. |
jupyter-hub-conf | Modifica i valori nel JupyterHubs file jupyterhub_config.py. |
jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. |
livy-conf | Modifica i valori nel file livy.conf di Livy. |
livy-env | Modifica i valori nell'ambiente Livy. |
livy-log4j | Modifica le impostazioni Livy log4j.properties. |
mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. |
mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. |
oozie-env | Modifica i valori nell'ambiente di Oozie. |
oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. |
oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. |
phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. |
phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. |
phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. |
phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. |
pig-env | Change values in the Pig environment. |
pig-properties | Modifica i valori nel file pig.properties di Pig. |
pig-log4j | Modifica i valori nel file log4j.properties di Pig. |
presto-log | Modifica i valori nel file log.properties di Presto. |
presto-config | Modifica i valori nel file config.properties di Presto. |
presto-env | Modifica i valori nel file presto-env.sh di Presto. |
presto-node | Modifica i valori nel file node.properties di Presto. |
presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. |
presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. |
presto-connector-hive | Modifica i valori nel file hive.properties di Presto. |
presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. |
presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. |
presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. |
presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. |
presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. |
presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. |
presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. |
presto-connector-redis | Modifica i valori nel file redis.properties di Presto. |
presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. |
presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. |
spark | Impostazioni EMR curate da Amazon per Apache Spark. |
spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. |
spark-env | Modifica i valori nell'ambiente Spark. |
spark-hive-site | Modifica i valori nel file hive-site.xml di Spark |
spark-log4j | Modifica i valori nel file log4j.properties di Spark. |
spark-metrics | Modifica i valori nel file metrics.properties di Spark. |
sqoop-env | Modifica i valori nell'ambiente di Sqoop. |
sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. |
sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. |
tez-site | Modifica i valori nel file tez-site.xml file di Tez. |
yarn-env | Cambia i valori nell'ambiente. YARN |
yarn-site | Modifica i valori nel YARN file yarn-site.xml. |
zeppelin-env | Modifica i valori nell'ambiente Zeppelin. |
zookeeper-config | Modifica i valori nel ZooKeeper file zoo.cfg. |
zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. |