Amazon EMR version 5.8.0
Versions de l'application
Les applications suivantes sont prises en charge dans cette version : Flink
Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).
Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :
Informations sur la version de l'application | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Kit SDK AWS pour Java | 1.11.160 | 1.10.75 | 1.10.75 | 1.10.75 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Python | Non disponible | Non disponible | Non disponible | Non disponible | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scala | Non disponible | Non disponible | Non disponible | Non disponible | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Delta | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Flink | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HCatalog | 2.3.0 | 2.1.1 | 2.1.1 | 2.1.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hadoop | 2.7.3 | 2.7.3 | 2.7.3 | 2.7.3 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hive | 2.3.0 | 2.1.1 | 2.1.1 | 2.1.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hudi | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Iceberg | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterEnterpriseGateway | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterHub | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Livy | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MXNet | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Phoenix | 4.11.0 | 4.11.0 | 4.11.0 | 4.9.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pig | 0.16.0 | 0.16.0 | 0.16.0 | 0.16.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto | 0.170 | 0.170 | 0.170 | 0.170 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Spark | 2.2.0 | 2.1.1 | 2.1.1 | 2.1.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TensorFlow | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Trino (PrestoSQL) | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 |
Notes de mise à jour
Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.8.0. Il s'agit des modifications apportées à la version Amazon EMR 5.7.0.
Date de parution initiale : 10 août 2017
Dernière date de mise à jour de la fonctionnalité : 25 septembre 2017
Mises à niveau
Kit SDK AWS 1.11.160
Flink 1.3.1
Hive 2.3.0. Pour plus d'informations, consultez Notes de mise à jour
sur le site Apache Hive. Spark 2.2.0. Pour plus d'informations, consultez Notes de mise à jour
sur le site Apache Spark.
Nouvelles fonctionnalités
Ajout de la prise en charge de l'affichage de l'historique de l'application (25 septembre 2017). Pour plus d'informations, consultez Affichage de l'historique de l'application dans le Guide de gestion Amazon EMR.
Modifications, améliorations et problèmes résolus
-
Intégration avec le catalogue de données AWS Glue
Capacité supplémentaire pour SQL Hive et Spark pour utiliser le catalogue de données AWS Glue en tant que magasin de métadonnées Hive. Pour plus d'informations, consultez Utilisation du catalogue de données AWS Glue comme métastore pour Hive et Utiliser le catalogue de données AWS Glue comme métastore pour Spark SQL.
-
Historique de l'application ajouté aux détails du cluster, ce qui vous permet d'afficher les données historiques des applications YARN et des détails supplémentaires pour les applications Spark. Pour plus d'informations, consultez Affichage de l'historique de l'application dans le Guide de gestion Amazon EMR.
Oozie
Rétroportage de OOZIE-2748
.
Hue
Rétroportage de HUE-5859
HBase
Correctif ajouté pour exposer la date de début du serveur principal HBase avec Java Management Extensions (JMX) en utilisant
getMasterInitializedTime
.Ajout d'un correctif qui améliore la date de début du cluster.
Problèmes connus
Le lancement du cluster échoue lorsque toutes les applications sont installées et que la taille du volume racine Amazon EBS par défaut n'est pas modifiée. Pour contourner ce problème, utilisez la commande
aws emr create-cluster
à partir de l'AWS CLI et spécifiez un paramètre--ebs-root-volume-size
plus grand.Hive 2.3.0 définit
hive.compute.query.using.stats=true
par défaut. Cela entraîne des requêtes pour obtenir des données à partir de statistiques existantes plutôt que directement à partir des données, ce qui peut être déroutant. Par exemple, si vous avez une table avechive.compute.query.using.stats=true
et que vous téléchargez de nouveaux fichiers vers la tableLOCATION
, l'exécution d'une demandeSELECT COUNT(*)
sur la table renvoie le nombre des statistiques, plutôt que de récupérer les lignes ajoutées.Pour contourner ce problème, utilisez la commande
ANALYZE TABLE
pour collecter de nouvelles statistiques, ou définissezhive.compute.query.using.stats=false
. Pour en savoir plus, consultez Statistiques dans Hivedans la documentation Apache Hive. Spark – Il existe un problème de fuite du gestionnaire de fichiers avec le démon apppusher lors de l'utilisation de Spark, qui peut apparaître après plusieurs heures ou jours pour une tâche Spark de longue durée. Pour résoudre le problème, connectez-vous au nœud primaire et tapez
sudo /etc/init.d/apppusher stop
. Cette commande arrête le démon apppusher, qu'Amazon EMR redémarre automatiquement.Historique de l'application
Les données d'historique pour les exécuteurs Spark inactifs ne sont pas disponibles.
L'historique de l'application n'est pas disponible pour les clusters qui utilisent une configuration de sécurité pour permettre le chiffrement à la volée.
Versions des composants
Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par emr
ou aws
. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.
Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme
. CommunityVersion
-amzn-EmrVersion
commence à 0. Par exemple, si un composant de la communauté open source nommé EmrVersion
myapp-component
avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom 2.2-amzn-2
.
Composant | Version | Description |
---|---|---|
emr-ddb | 4.4.0 | Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop. |
emr-goodies | 2.4.0 | Bibliothèques proposant plus de commodités pour l'écosystème Hadoop. |
emr-kinesis | 3.4.0 | Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop. |
emr-s3-dist-cp | 2.6.0 | Application de copie distribuée optimisée pour Amazon S3. |
emrfs | 2.18.0 | Connecteur Amazon S3 pour les applications de l'écosystème Hadoop. |
flink-client | 1.3.1 | Applications et scripts client de la ligne de commande Apache Flink. |
ganglia-monitor | 3.7.2 | Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia. |
ganglia-metadata-collector | 3.7.2 | Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia. |
ganglia-web | 3.7.1 | Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia. |
hadoop-client | 2.7.3-amzn-3 | Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ». |
hadoop-hdfs-datanode | 2.7.3-amzn-3 | HDFS node-level service for storing blocks. |
hadoop-hdfs-library | 2.7.3-amzn-3 | Bibliothèque et client de ligne de commande HDFS |
hadoop-hdfs-namenode | 2.7.3-amzn-3 | Service HDFS pour le suivi des noms de fichier et des emplacements de bloc. |
hadoop-httpfs-server | 2.7.3-amzn-3 | Point de terminaison HTTP pour les opérations HDFS. |
hadoop-kms-server | 2.7.3-amzn-3 | Serveur de gestion des clés cryptographiques basé sur l'API KeyProvider de Hadoop. |
hadoop-mapred | 2.7.3-amzn-3 | Bibliothèques de moteur d'exécution MapReduce pour exécuter une application MapReduce. |
hadoop-yarn-nodemanager | 2.7.3-amzn-3 | Service YARN pour la gestion de conteneurs sur un nœud individuel. |
hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées. |
hadoop-yarn-timeline-server | 2.7.3-amzn-3 | Service de récupération d'informations actuelles et historiques pour les applications YARN. |
hbase-hmaster | 1.3.1 | Service pour un cluster HBase responsable de la coordination des régions et de l'exécution des commandes administratives. |
hbase-region-server | 1.3.1 | Service pour desservir une ou plusieurs régions HBase. |
hbase-client | 1.3.1 | Client de ligne de commande HBase. |
hbase-rest-server | 1.3.1 | Service fournissant un point de terminaison RESTful HTTP pour HBase. |
hbase-thrift-server | 1.3.1 | Service fournissant un point de terminaison Thrift à HBase. |
hcatalog-client | 2.3.0-amzn-0 | Client de ligne de commande « hcat » pour la manipulation de hcatalog-server. |
hcatalog-server | 2.3.0-amzn-0 | Service fournissant HCatalog, couche de gestion de table et de stockage pour les applications distribuées. |
hcatalog-webhcat-server | 2.3.0-amzn-0 | Point de terminaison HTTP fournissant une interface REST à HCatalog. |
hive-client | 2.3.0-amzn-0 | Client de ligne de commande Hive. |
hive-hbase | 2.3.0-amzn-0 | Client Hive-hbase. |
hive-metastore-server | 2.3.0-amzn-0 | Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop. |
hive-server2 | 2.3.0-amzn-0 | Service pour l'acceptation de requêtes Hive en tant que requêtes web. |
hue-server | 3.12.0 | Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop |
mahout-client | 0.13.0 | Bibliothèque pour la technologie Machine Learning. |
mysql-server | 5.5.54+ | Serveur de base de données MySQL. |
oozie-client | 4.3.0 | Client de ligne de commande Oozie. |
oozie-server | 4.3.0 | Service pour l'acceptation des demandes de flux de travail Oozie. |
phoenix-library | 4.11.0-HBase-1.3 | Les bibliothèques phoenix pour serveur et client |
phoenix-query-server | 4.11.0-HBase-1.3 | Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica |
presto-coordinator | 0.170 | Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker. |
presto-worker | 0.170 | Service pour exécuter les éléments d'une requête. |
pig-client | 0.16.0-amzn-1 | Client de ligne de commande Pig. |
spark-client | 2.2.0 | Clients de ligne de commande Spark. |
spark-history-server | 2.2.0 | Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée. |
spark-on-yarn | 2.2.0 | Moteur d'exécution en mémoire pour YARN. |
spark-yarn-slave | 2.2.0 | Bibliothèques Apache Spark requises par les esclaves YARN. |
sqoop-client | 1.4.6 | Client de ligne de commande Apache Sqoop. |
tez-on-yarn | 0.8.4 | Les bibliothèques et l'application tez YARN. |
webserver | 2.4.25+ | Serveur HTTP Apache. |
zeppelin-server | 0.7.2 | Portable basé sur le web qui permet l'analyse de données interactives. |
zookeeper-server | 3.4.10 | Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe. |
zookeeper-client | 3.4.10 | Client de ligne de commande ZooKeeper. |
Classifications des configurations
Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que hive-site.xml
. Pour de plus amples informations, veuillez consulter Configuration des applications.
Classifications emr-5.8.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Classifications | Description | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
capacity-scheduler | Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
core-site | Modifiez les valeurs dans le fichier core-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
emrfs-site | Modifiez les paramètres EMRFS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-conf | Modifiez les paramètres flink-conf.yaml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j | Modifiez les paramètres log4j.properties Flink. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j-yarn-session | Modifiez les paramètres de Flink log4j-fil-session.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
flink-log4j-cli | Modifiez les paramètres de propriétés Flink log4j-cli. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-env | Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-log4j | Modifiez les valeurs dans le fichier log4j.properties de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-server | Modifier la configuration du serveur ssl hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-client | Modifier la configuration du client ssl hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase | Paramètres organisés par Amazon EMR pour Apache HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-env | Modifiez les valeurs dans l'environnement HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-log4j | Modifiez les valeurs dans le fichier hbase-log4j.properties de HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-policy | Modifiez les valeurs dans le fichier hbase-policy.xml de HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de HBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-encryption-zones | Configurez les zones de chiffrement HDFS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-site | Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-env | Modifiez les valeurs dans l'environnement HCatalog. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-jndi | Modifiez les valeurs dans jndi.properties de HCatalog. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-proto-hive-site | Modifiez les valeurs dans proto-hive-site.xml de HCatalog. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-env | Modifiez les valeurs dans l'environnement WebHCat HCatalog. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-log4j2 | Modifiez les valeurs dans log4j2.properties de HCatalog WebHCat. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-site | Modifiez les valeurs dans le fichier webhcat-site.xml de WebHCat HCatalog. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-beeline-log4j2 | Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-parquet-logging | Modifiez les valeurs dans le fichier parquet-logging.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-env | Modifiez les valeurs dans l'environnement Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-exec-log4j2 | Modifiez les valeurs dans le fichier hive-exec-log4j2.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-llap-daemon-log4j2 | Modifiez les valeurs dans le fichier llap-daemon-log4j2.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-log4j2 | Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Hive | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hiveserver2-site | Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hue-ini | Modifiez les valeurs dans le fichier ini de Hue | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-env | Modifiez les valeurs dans l'environnement HTTPFS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-site | Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-acls | Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-env | Modifiez les valeurs dans l'environnement KMS de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-log4j | Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-site | Modifiez les valeurs dans le fichier kms-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-env | Modifiez les valeurs dans l'environnement de l'application MapReduce. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-site | Modifiez les valeurs dans le fichier mapred-site.xml de l'application MapReduce. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-env | Modifiez les valeurs dans l'environnement d'Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-log4j | Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-site | Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-site | Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-log4j | Modifiez les valeurs dans le fichier log4j.properties de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-metrics | Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-properties | Modifiez les valeurs dans le fichier pig.properties de Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-log4j | Modifiez les valeurs dans le fichier log4j.properties de Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-log | Modifiez les valeurs dans le fichier log.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-config | Modifiez les valeurs dans le fichier config.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-env | Modifiez les valeurs dans le fichier presto-env.sh de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-node | Modifiez les valeurs dans le fichier node.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-blackhole | Modifiez les valeurs dans le fichier blackhole.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-cassandra | Modifiez les valeurs dans le fichier cassandra.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-hive | Modifiez les valeurs dans le fichier hive.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-jmx | Modifiez les valeurs dans le fichier jmx.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-kafka | Modifiez les valeurs dans le fichier kafka.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-localfile | Modifiez les valeurs dans le fichier localfile.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mongodb | Modifiez les valeurs dans le fichier mongodb.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mysql | Modifiez les valeurs dans le fichier mysql.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-postgresql | Modifiez les valeurs dans le fichier postgresql.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-raptor | Modifiez les valeurs dans le fichier raptor.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redis | Modifiez les valeurs dans le fichier redis.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpch | Modifiez les valeurs dans le fichier tpch.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark | Paramètres organisés par Amazon EMR pour Apache Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-defaults | Modifiez les valeurs dans le fichier spark-defaults.conf de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-env | Modifiez les valeurs dans l'environnement Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-hive-site | Modifiez les valeurs dans le fichier hive-site.xml de Spark | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-log4j | Modifiez les valeurs dans le fichier log4j.properties de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-metrics | Modifiez les valeurs dans le fichier metrics.properties de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-env | Modifiez les valeurs d'environnement Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-oraoop-site | Modifiez les valeurs dans le fichier oraoop-site.xml d'OraOop Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-site | Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
tez-site | Modifiez les valeurs dans le fichier tez-site.xml de Tez. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-env | Modifiez les valeurs dans l'environnement YARN. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-site | Modifiez les valeurs dans le fichier yarn-site.xml de YARN. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-env | Modifiez les valeurs dans l'environnement Zeppelin. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-config | Modifiez les valeurs dans le fichier zoo.cfg de ZooKeeper. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-log4j | Modifiez les valeurs dans le fichier log4j.properties de ZooKeeper. |