Amazon EMR version 5.31.1 - Amazon EMR

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Amazon EMR version 5.31.1

Versions d’application 5.31.1

Les applications suivantes sont prises en charge dans cette version : Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin, et ZooKeeper.

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :

Informations sur la version de l'application
emr-5.31.1 emr-5.31.0 emr-5.30.2 emr-5.30.1
AWS SDK pour Java 1,1,8521,1,8521,1,7591,1,759
Python 2,7, 3,72,7, 3,72,7, 3,72,7, 3,7
Scala 2,1,122,1,122,1,122,1,12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.01.11.01.10.01.10.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.131.4.131.4.13
HCatalog2.3.72.3.72.3.62.3.6
Hadoop2.10.02.10.02.8.52.8.5
Hive2.3.72.3.72.3.62.3.6
Hudi0.6.0-amzn-00.6.0-amzn-00.5.2-incubating0.5.2-incubating
Hue4.7.14.7.14.6.04.6.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.1.01.1.0
Livy0.7.00.7.00.7.00.7.0
MXNet1.6.01.6.01.5.11.5.1
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.2.05.2.05.2.0
Phoenix4.14.34.14.34.14.34.14.3
Pig0.17.00.17.00.17.00.17.0
Presto0,238,30,238,30.2320.232
Spark2.4.62.4.62.4.52.4.5
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.1.02.1.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL) - - - -
Zeppelin0.8.20.8.20.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

Notes de mise à jour 5.31.1

Cette version corrige les problèmes liés à Amazon EMR Scaling lorsqu'il ne parvient pas à augmenter ou réduire la taille d'un cluster ou qu'il provoque des défaillances au niveau des applications.

Modifications, améliorations et problèmes résolus
  • Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.

  • Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.

  • SPARK-29683. Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.

  • YARN-9011. Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.

  • Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.

  • Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela était dû au fait que le démon Amazon EMR on-cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer de manière sécurisée avec HDFS/YARN s'exécutant sur le nœud primaire.

  • Les nouvelles versions d'Amazon EMR corrigent le problème avec une limite inférieure du « Nombre maximum de fichiers ouverts » sur l'ancienne version AL2 d'Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.

  • Le protocole HTTPS est désormais activé par défaut pour les référentiels Amazon Linux. Si vous utilisez une politique VPCE Amazon S3 pour restreindre l'accès à des compartiments spécifiques, vous devez ajouter le nouvel ARN du compartiment Amazon Linux arn:aws:s3:::amazonlinux-2-repos-$region/* à votre politique (remplacez $region par la région où se trouve le point de terminaison). Pour plus d'informations, consultez cette rubrique dans les forums de AWS discussion. Annonce : Amazon Linux 2 permet désormais d'utiliser le protocole HTTPS lors de la connexion aux référentiels de packages.

Problèmes connus
  • Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :

    • Deux partitions ou plus sont analysées à partir de la même table.

    • Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, s3://bucket/table/p=a est un préfixe de s3://bucket/table/p=a b.

    • Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère / (U+002F). Par exemple, le caractère d'espace (U+0020) qui apparaît entre a et b dans s3://bucket/table/p=a b entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : !"#$%&‘()*+,-. Pour plus d'informations, consultez Table de codage UTF-8 et les caractères Unicode.

    Pour contourner ce problème, définissez la configuration spark.sql.sources.fastS3PartitionDiscovery.enabled sur false dans la classification spark-defaults.

Versions des composants 5.31.1

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par emr ou aws. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme CommunityVersion-amzn-EmrVersion. EmrVersion commence à 0. Par exemple, si un composant de la communauté open source nommé myapp-component avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom 2.2-amzn-2.

Composant Version Description
aws-sagemaker-spark-sdk1.4.0Kit de développement logiciel Amazon SageMaker Spark
emr-ddb4,15,0Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop.
emr-goodies2.13.0Bibliothèques proposant plus de commodités pour l'écosystème Hadoop.
emr-kinesis3.5.0Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop.
emr-s3-dist-cp2.15.0Application de copie distribuée optimisée pour Amazon S3.
emr-s3-select1.6.0Connecteur S3Select EMR
emrfs2.43.0Connecteur Amazon S3 pour les applications de l'écosystème Hadoop.
flink-client1.11.0Applications et scripts client de la ligne de commande Apache Flink.
flink-jobmanager-config1.11.0Gestion des ressources sur les nœuds EMR pour Apache Flink. JobManager
ganglia-monitor3.7.2Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia.
ganglia-metadata-collector3.7.2Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia.
ganglia-web3.7.1Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia.
hadoop-client2.10.0-amzn-0.1Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ».
hadoop-hdfs-datanode2.10.0-amzn-0.1HDFS node-level service for storing blocks.
hadoop-hdfs-library2.10.0-amzn-0.1Bibliothèque et client de ligne de commande HDFS
hadoop-hdfs-namenode2.10.0-amzn-0.1Service HDFS pour le suivi des noms de fichier et des emplacements de bloc.
hadoop-hdfs-journalnode2.10.0-amzn-0.1Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA.
hadoop-httpfs-server2.10.0-amzn-0.1Point de terminaison HTTP pour les opérations HDFS.
hadoop-kms-server2.10.0-amzn-0.1Serveur de gestion des clés cryptographiques basé sur l'API de Hadoop. KeyProvider
hadoop-mapred2.10.0-amzn-0.1MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application.
hadoop-yarn-nodemanager2.10.0-amzn-0.1Service YARN pour la gestion de conteneurs sur un nœud individuel.
hadoop-yarn-resourcemanager2.10.0-amzn-0.1Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées.
hadoop-yarn-timeline-server2.10.0-amzn-0.1Service de récupération d'informations actuelles et historiques pour les applications YARN.
hbase-hmaster1.4.13Service pour un cluster HBase responsable de la coordination des régions et de l'exécution des commandes administratives.
hbase-region-server1.4.13Service pour desservir une ou plusieurs régions HBase.
hbase-client1.4.13Client de ligne de commande HBase.
hbase-rest-server1.4.13Service fournissant un point de terminaison RESTful HTTP pour HBase.
hbase-thrift-server1.4.13Service fournissant un point de terminaison Thrift à HBase.
hcatalog-client2.3.7-amzn-1Client de ligne de commande « hcat » pour la manipulation de hcatalog-server.
hcatalog-server2.3.7-amzn-1Service fournissant HCatalog, couche de gestion de table et de stockage pour les applications distribuées.
hcatalog-webhcat-server2.3.7-amzn-1Point de terminaison HTTP fournissant une interface REST à HCatalog.
hive-client2.3.7-amzn-1Client de ligne de commande Hive.
hive-hbase2.3.7-amzn-1Client Hive-hbase.
hive-metastore-server2.3.7-amzn-1Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop.
hive-server22.3.7-amzn-1Service pour l'acceptation de requêtes Hive en tant que requêtes web.
hudi0.6.0-amzn-0Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée.
hudi-spark0.6.0-amzn-0Bibliothèque de solution groupée pour exécuter Spark avec Hudi.
hudi-presto0.6.0-amzn-0Bibliothèque de solution groupée pour exécuter Presto avec Hudi.
hue-server4.7.1Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop
jupyterhub1.1.0Serveur multi-utilisateurs pour blocs-notes Jupyter
livy-server0.7.0-incubatingInterface REST pour interagir avec Apache Spark
nginx1.12.1nginx [engine x] est un serveur HTTP et à proxy inverse
mahout-client0.13.0Bibliothèque pour la technologie Machine Learning.
mxnet1.6.0Bibliothèque flexible, évolutive et efficace pour le deep learning.
mariadb-server5.5.64+Serveur de base de données MySQL.
nvidia-cuda9.2.88Pilotes Nvidia et boîte à outils Cuda
oozie-client5.2.0Client de ligne de commande Oozie.
oozie-server5.2.0Service pour l'acceptation des demandes de flux de travail Oozie.
opencv4.3.0Bibliothèque open source Vision par ordinateur
phoenix-library4.14.3-HBase-1.4Les bibliothèques phoenix pour serveur et client
phoenix-query-server4.14.3-HBase-1.4Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica
presto-coordinator0.238.3-amzn-0Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker.
presto-worker0.238.3-amzn-0Service pour exécuter les éléments d'une requête.
presto-client0.238.3-amzn-0Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré.
pig-client0.17.0Client de ligne de commande Pig.
r3.4.3Projet R pour les calculs statistiques
ranger-kms-server1.2.0Système de gestion des clés Apache Ranger
spark-client2.4.6-amzn-0.1Clients de ligne de commande Spark.
spark-history-server2.4.6-amzn-0.1Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée.
spark-on-yarn2.4.6-amzn-0.1Moteur d'exécution en mémoire pour YARN.
spark-yarn-slave2.4.6-amzn-0.1Bibliothèques Apache Spark requises par les esclaves YARN.
sqoop-client1.4.7Client de ligne de commande Apache Sqoop.
tensorflow2.1.0TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance.
tez-on-yarn0.9.2Les bibliothèques et l'application tez YARN.
webserver2.4.25+Serveur HTTP Apache.
zeppelin-server0.8.2Portable basé sur le web qui permet l'analyse de données interactives.
zookeeper-server3.4.14Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe.
zookeeper-client3.4.14ZooKeeper client en ligne de commande.

Classifications des configurations 5.31.1

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que hive-site.xml. Pour plus d’informations, consultez Configuration des applications.

Classifications emr-5.31.1
Classifications Description

capacity-scheduler

Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop.

container-log4j

Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN.

core-site

Modifiez les valeurs dans le fichier core-site.xml de Hadoop.

emrfs-site

Modifiez les paramètres EMRFS.

flink-conf

Modifiez les paramètres flink-conf.yaml.

flink-log4j

Modifiez les paramètres log4j.properties Flink.

flink-log4j-yarn-session

Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4.

flink-log4j-cli

Modifiez les paramètres de propriétés Flink log4j-cli.

hadoop-env

Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop.

hadoop-log4j

Modifiez les valeurs dans le fichier log4j.properties de Hadoop.

hadoop-ssl-server

Modifier la configuration du serveur ssl hadoop

hadoop-ssl-client

Modifier la configuration du client ssl hadoop

hbase

Paramètres définis par Amazon EMR pour Apache HBase.

hbase-env

Modifiez les valeurs dans l'environnement HBase.

hbase-log4j

Modifiez les valeurs dans le fichier hbase-log4j.properties de HBase.

hbase-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de HBase.

hbase-policy

Modifiez les valeurs dans le fichier hbase-policy.xml de HBase.

hbase-site

Modifiez les valeurs dans le fichier hbase-site.xml de HBase.

hdfs-encryption-zones

Configurez les zones de chiffrement HDFS.

hdfs-site

Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS.

hcatalog-env

Modifiez les valeurs dans l'environnement HCatalog.

hcatalog-server-jndi

Modifiez les valeurs dans jndi.properties de HCatalog.

hcatalog-server-proto-hive-site

Modifiez les valeurs dans le proto-hive-site fichier .xml de HCatalog.

hcatalog-webhcat-env

Modifiez les valeurs dans l'environnement WebHCat HCatalog.

hcatalog-webhcat-log4j2

Modifiez les valeurs dans log4j2.properties de HCatalog WebHCat.

hcatalog-webhcat-site

Modifiez les valeurs dans le fichier webhcat-site.xml de WebHCat HCatalog.

hive-beeline-log4j2

Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive.

hive-parquet-logging

Modifiez les valeurs dans le fichier parquet-logging.properties de Hive.

hive-env

Modifiez les valeurs dans l'environnement Hive.

hive-exec-log4j2

Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive.

hive-llap-daemon-log4j2

Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive.

hive-log4j2

Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive.

hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Hive

hiveserver2-site

Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2

hue-ini

Modifiez les valeurs dans le fichier ini de Hue

httpfs-env

Modifiez les valeurs dans l'environnement HTTPFS.

httpfs-site

Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop.

hadoop-kms-acls

Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop.

hadoop-kms-env

Modifiez les valeurs dans l'environnement KMS de Hadoop.

hadoop-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop.

hadoop-kms-site

Modifiez les valeurs dans le fichier kms-site.xml de Hadoop.

hudi-env

Modifiez les valeurs dans l'environnement Hudi.

jupyter-notebook-conf

Modifiez les valeurs dans le fichier jupyter_notebook_config.py de Jupyter Notebook.

jupyter-hub-conf

Modifiez les valeurs dans JupyterHubs le fichier jupyterhub_config.py.

jupyter-s3-conf

Configuration de la persistance S3 de bloc-notes Jupyter.

jupyter-sparkmagic-conf

Modifiez les valeurs dans le fichier config.json de Sparkmagic.

livy-conf

Modifiez les valeurs dans le fichier livy.conf de Livy.

livy-env

Modifiez les valeurs dans l'environnement Livy.

livy-log4j

Modifiez les paramètres Livy log4j.properties.

mapred-env

Modifiez les valeurs dans l'environnement de l' MapReduce application.

mapred-site

Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application.

oozie-env

Modifiez les valeurs dans l'environnement d'Oozie.

oozie-log4j

Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie.

oozie-site

Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie.

phoenix-hbase-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix.

phoenix-hbase-site

Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix.

phoenix-log4j

Modifiez les valeurs dans le fichier log4j.properties de Phoenix.

phoenix-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix.

pig-env

Modifiez les valeurs dans l'environnement Pig.

pig-properties

Modifiez les valeurs dans le fichier pig.properties de Pig.

pig-log4j

Modifiez les valeurs dans le fichier log4j.properties de Pig.

presto-log

Modifiez les valeurs dans le fichier log.properties de Presto.

presto-config

Modifiez les valeurs dans le fichier config.properties de Presto.

presto-password-authenticator

Modifiez les valeurs dans le fichier password-authenticator.properties de Presto.

presto-env

Modifiez les valeurs dans le fichier presto-env.sh de Presto.

presto-node

Modifiez les valeurs dans le fichier node.properties de Presto.

presto-connector-blackhole

Modifiez les valeurs dans le fichier blackhole.properties de Presto.

presto-connector-cassandra

Modifiez les valeurs dans le fichier cassandra.properties de Presto.

presto-connector-hive

Modifiez les valeurs dans le fichier hive.properties de Presto.

presto-connector-jmx

Modifiez les valeurs dans le fichier jmx.properties de Presto.

presto-connector-kafka

Modifiez les valeurs dans le fichier kafka.properties de Presto.

presto-connector-localfile

Modifiez les valeurs dans le fichier localfile.properties de Presto.

presto-connector-memory

Modifiez les valeurs dans le fichier memory.properties de Presto.

presto-connector-mongodb

Modifiez les valeurs dans le fichier mongodb.properties de Presto.

presto-connector-mysql

Modifiez les valeurs dans le fichier mysql.properties de Presto.

presto-connector-postgresql

Modifiez les valeurs dans le fichier postgresql.properties de Presto.

presto-connector-raptor

Modifiez les valeurs dans le fichier raptor.properties de Presto.

presto-connector-redis

Modifiez les valeurs dans le fichier redis.properties de Presto.

presto-connector-redshift

Modifiez les valeurs dans le fichier redshift.properties de Presto.

presto-connector-tpch

Modifiez les valeurs dans le fichier tpch.properties de Presto.

presto-connector-tpcds

Modifiez les valeurs dans le fichier tpcds.properties de Presto.

ranger-kms-dbks-site

Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS.

ranger-kms-site

Modifiez les valeurs dans le fichier ranger-kms-site .xml de Ranger KMS.

ranger-kms-env

Modifiez les valeurs dans l'environnement Ranger KMS.

ranger-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS.

ranger-kms-db-ca

Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS.

recordserver-env

Modifiez les valeurs dans l'environnement EMR. RecordServer

recordserver-conf

Modifiez les valeurs dans le fichier erver.properties RecordServer de l'EMR.

recordserver-log4j

Modifiez les valeurs dans le fichier log4j.properties RecordServer de l'EMR.

spark

Paramètres définis par Amazon EMR pour Apache Spark.

spark-defaults

Modifiez les valeurs dans le fichier spark-defaults.conf de Spark.

spark-env

Modifiez les valeurs dans l'environnement Spark.

spark-hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Spark

spark-log4j

Modifiez les valeurs dans le fichier log4j.properties de Spark.

spark-metrics

Modifiez les valeurs dans le fichier metrics.properties de Spark.

sqoop-env

Modifiez les valeurs d'environnement Sqoop.

sqoop-oraoop-site

Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop.

sqoop-site

Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop.

tez-site

Modifiez les valeurs dans le fichier tez-site.xml de Tez.

yarn-env

Modifiez les valeurs dans l'environnement YARN.

yarn-site

Modifiez les valeurs dans le fichier yarn-site.xml de YARN.

zeppelin-env

Modifiez les valeurs dans l'environnement Zeppelin.

zookeeper-config

Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg.

zookeeper-log4j

Modifiez les valeurs dans le ZooKeeper fichier log4j.properties.