Amazon EMR version 5.26.0 - Amazon EMR

Amazon EMR version 5.26.0

Versions de l'application

Les applications suivantes sont prises en charge dans cette version : Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin et ZooKeeper.

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :

Informations sur la version de l'application
emr-5.26.0 emr-5.25.0 emr-5.24.1 emr-5.24.0
Kit SDK AWS pour Java 1.11.5951.11.5661.11.5461.11.546
Python 2.7, 3.62.7, 3.62.7, 3.62.7, 3.6
Scala Non disponibleNon disponibleNon disponibleNon disponible
Delta - - - -
Flink1.8.01.8.01.8.01.8.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.101.4.91.4.91.4.9
HCatalog2.3.52.3.52.3.42.3.4
Hadoop2.8.52.8.52.8.52.8.5
Hive2.3.52.3.52.3.42.3.4
Hudi - - - -
Hue4.4.04.4.04.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub0.9.60.9.60.9.60.9.6
Livy0.6.00.6.00.6.00.6.0
MXNet1.4.01.4.01.4.01.4.0
Mahout0.13.00.13.00.13.00.13.0
Oozie5.1.05.1.05.1.05.1.0
Phoenix4.14.24.14.14.14.14.14.1
Pig0.17.00.17.00.17.00.17.0
Presto0.2200.2200.2190.219
Spark2.4.32.4.32.4.22.4.2
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.13.11.13.11.12.01.12.0
Tez0.9.20.9.20.9.10.9.1
Trino (PrestoSQL) - - - -
Zeppelin0.8.10.8.10.8.10.8.1
ZooKeeper3.4.143.4.143.4.133.4.13

Notes de mise à jour

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.26.0. Les modifications ont été apportées à la version 5.25.0.

Date de parution initiale : 8 août 2019

Dernière mise à jour : 19 août 2019

Mises à niveau
  • AWS SDK for Java 1.11.595

  • HBase 1.4.10

  • Phoenix 4.14.2

  • Connecteurs et pilotes :

    • Connecteur DynamoDB 4.11.0

    • Connecteur MariaDB 2.4.2

    • Pilote JDBC Amazon Redshift version 1.2.32.1056

Nouvelles fonctionnalités
  • (Bêta) Avec Amazon EMR 5.26.0, vous pouvez lancer un cluster qui s'intègre à Lake Formation. Cette intégration fournit un accès précis, au niveau des colonnes, aux bases de données et aux tables du catalogue de données AWS Glue. Il permet également une authentification unique fédérée à Blocs-notes EMR ou Apache Zeppelin à partir d'un système d'identité d'entreprise. Pour plus d'informations, consultez Intégration d'Amazon EMR à AWS Lake Formation (bêta).

  • (19 août 2019) Bloquer l'accès public d'Amazon EMR est désormais disponible avec toutes les versions d'Amazon EMR qui prennent en charge les groupes de sécurité. Bloquer l'accès public est un paramètre applicable à l'ensemble du compte et appliqué à chaque région AWS. Le blocage d'accès public d'empêcher le lancement d'un cluster lorsqu'un groupe de sécurité associé au cluster contient une règle qui autorise le trafic entrant à partir d'une adresse IPv4 0.0.0.0/0 ou IPv6 ::/0 (accès public) sur un port, sauf dans le cas d'un port spécifié en tant qu'exception. Le port 22 est une exception par défaut. Pour plus d'informations, consultez Utilisation d'Amazon EMR Block Public Access dans le Guide de gestion Amazon EMR.

Modifications, améliorations et problèmes résolus
  • Blocs-notes EMR

    • Avec EMR 5.26.0 et versions ultérieures, Blocs-notes EMR prend en charge les bibliothèques Python limitées aux blocs-notes en plus des bibliothèques Python par défaut. Vous pouvez installer des bibliothèques limitées au bloc-notes depuis l'éditeur de bloc-notes sans avoir à recréer un cluster ou à rattacher un bloc-notes à un cluster. Les bibliothèques limitées aux blocs-notes sont créées dans un environnement virtuel Python, de sorte qu'elles ne s'appliquent qu'à la session de bloc-notes en cours. Cela vous permet d'isoler les dépendances du bloc-notes. Pour plus d'informations, consultez Utilisation de bibliothèques limitées aux blocs-notes dans le Guide de gestion Amazon EMR.

  • EMRFS

    • Vous pouvez activer une fonction de vérification ETag (Bêta) en définissant fs.s3.consistent.metadata.etag.verification.enabled sur true. Avec cette fonctionnalité, EMRFS utilise Amazon S3 ETags pour vérifier que les objets en cours de lecture correspondent à la dernière version disponible. Cette fonctionnalité est utile pour les cas d'utilisation de lecture après mise à jour dans lesquels des fichiers sur Amazon S3 sont remplacés tout en conservant le même nom. Cette fonctionnalité de vérification ETag ne fonctionne actuellement pas avec S3 Select. Pour plus d'informations, consultez Configuration de la vue cohérente.

  • Spark

    • Les optimisations suivantes sont désormais activées par défaut : élimination dynamique des partitions, DISTINCT avant INTERSECT, amélioration de l'inférence des statistiques de plan SQL pour les requêtes JOIN suivies de DISTINCT, aplatissement des sous-requêtes scalaires, réorganisation optimisée des jointures et jointure par filtre bloom. Pour plus d'informations, consultez Optimisation des performances de Spark.

    • Génération de code améliorée pour l'ensemble de l'étape pour Sort Merge Join.

    • Amélioration de la réutilisation des fragments de requête et des sous-requêtes.

    • Améliorations apportées à la préallocation des exécuteurs au démarrage de Spark.

    • Les jointures par filtre bloom ne sont plus appliquées lorsque le côté le plus petit de la jointure inclut un indice de diffusion.

  • Tez

    • Un problème avec Tez a été résolu. L'interface utilisateur de Tez fonctionne désormais sur un cluster Amazon EMR avec plusieurs nœuds primaires.

Problèmes connus
  • Les fonctionnalités améliorées de génération de code pour l'ensemble de l'étape pour Sort Merge Join peuvent augmenter la sollicitation de la mémoire lorsqu'elles sont activées. Cette optimisation améliore les performances, mais peut entraîner de nouvelles tentatives de tâches ou des échecs si spark.yarn.executor.memoryOverheadFactor n'est pas réglé pour fournir suffisamment de mémoire. Pour désactiver cette fonctionnalité, définissez spark.sql.sortMergeJoinExec.extendedCodegen.enabled sur false.

  • Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

    Si vous exécutez des clusters avec plusieurs nœuds primaires et une authentification Kerberos dans les versions 5.20.0 et ultérieures d'Amazon EMR, vous pouvez rencontrer des problèmes avec des opérations de cluster telles que la réduction d'échelle ou la soumission d'étapes, après que le cluster ait fonctionné pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées.

    Solution :

    • SSH en tant qu'utilisateur hadoop au nœud primaire du cluster EMR avec plusieurs nœuds primaires.

    • Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur hadoop.

      kinit -kt <keytab_file> <principal>

      Généralement, le fichier keytab se trouve dans /etc/hadoop.keytab et le principal se présente sous la forme de hadoop/<hostname>@<REALM>.

    Note

    Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

Versions des composants

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par emr ou aws. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme CommunityVersion-amzn-EmrVersion. EmrVersion commence à 0. Par exemple, si un composant de la communauté open source nommé myapp-component avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom 2.2-amzn-2.

Composant Version Description
aws-sagemaker-spark-sdk1.2.4SDK Amazon SageMaker Spark
emr-ddb4.11.0Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop.
emr-goodies2.10.0Bibliothèques proposant plus de commodités pour l'écosystème Hadoop.
emr-kinesis3.4.0Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop.
emr-s3-dist-cp2.12.0Application de copie distribuée optimisée pour Amazon S3.
emr-s3-select1.3.0Connecteur S3Select EMR
emrfs2.35.0Connecteur Amazon S3 pour les applications de l'écosystème Hadoop.
flink-client1.8.0Applications et scripts client de la ligne de commande Apache Flink.
ganglia-monitor3.7.2Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia.
ganglia-metadata-collector3.7.2Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia.
ganglia-web3.7.1Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia.
hadoop-client2.8.5-amzn-4Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ».
hadoop-hdfs-datanode2.8.5-amzn-4HDFS node-level service for storing blocks.
hadoop-hdfs-library2.8.5-amzn-4Bibliothèque et client de ligne de commande HDFS
hadoop-hdfs-namenode2.8.5-amzn-4Service HDFS pour le suivi des noms de fichier et des emplacements de bloc.
hadoop-hdfs-journalnode2.8.5-amzn-4Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA.
hadoop-httpfs-server2.8.5-amzn-4Point de terminaison HTTP pour les opérations HDFS.
hadoop-kms-server2.8.5-amzn-4Serveur de gestion des clés cryptographiques basé sur l'API KeyProvider de Hadoop.
hadoop-mapred2.8.5-amzn-4Bibliothèques de moteur d'exécution MapReduce pour exécuter une application MapReduce.
hadoop-yarn-nodemanager2.8.5-amzn-4Service YARN pour la gestion de conteneurs sur un nœud individuel.
hadoop-yarn-resourcemanager2.8.5-amzn-4Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées.
hadoop-yarn-timeline-server2.8.5-amzn-4Service de récupération d'informations actuelles et historiques pour les applications YARN.
hbase-hmaster1.4.10Service pour un cluster HBase responsable de la coordination des régions et de l'exécution des commandes administratives.
hbase-region-server1.4.10Service pour desservir une ou plusieurs régions HBase.
hbase-client1.4.10Client de ligne de commande HBase.
hbase-rest-server1.4.10Service fournissant un point de terminaison RESTful HTTP pour HBase.
hbase-thrift-server1.4.10Service fournissant un point de terminaison Thrift à HBase.
hcatalog-client2.3.5-amzn-0Client de ligne de commande « hcat » pour la manipulation de hcatalog-server.
hcatalog-server2.3.5-amzn-0Service fournissant HCatalog, une table et couche de gestion de stockage pour des applications distribuées.
hcatalog-webhcat-server2.3.5-amzn-0Point de terminaison HTTP fournissant une interface REST à HCatalog.
hive-client2.3.5-amzn-0Client de ligne de commande Hive.
hive-hbase2.3.5-amzn-0Client Hive-hbase.
hive-metastore-server2.3.5-amzn-0Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop.
hive-server22.3.5-amzn-0Service pour l'acceptation de requêtes Hive en tant que requêtes web.
hue-server4.4.0Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop
jupyterhub0.9.6Serveur multi-utilisateurs pour blocs-notes Jupyter
livy-server0.6.0-incubatingInterface REST pour interagir avec Apache Spark
nginx1.12.1nginx [engine x] est un serveur HTTP et à proxy inverse
mahout-client0.13.0Bibliothèque pour la technologie Machine Learning.
mxnet1.4.0Bibliothèque flexible, évolutive et efficace pour le deep learning.
mysql-server5.5.54+Serveur de base de données MySQL.
nvidia-cuda9.2.88Pilotes Nvidia et boîte à outils Cuda
oozie-client5.1.0Client de ligne de commande Oozie.
oozie-server5.1.0Service pour l'acceptation des demandes de flux de travail Oozie.
opencv3.4.0Bibliothèque open source Vision par ordinateur
phoenix-library4.14.2-HBase-1.4Les bibliothèques phoenix pour serveur et client
phoenix-query-server4.14.2-HBase-1.4Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica
presto-coordinator0.220Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker.
presto-worker0.220Service pour exécuter les éléments d'une requête.
pig-client0.17.0Client de ligne de commande Pig.
r3.4.1Projet R pour les calculs statistiques
spark-client2.4.3Clients de ligne de commande Spark.
spark-history-server2.4.3Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée.
spark-on-yarn2.4.3Moteur d'exécution en mémoire pour YARN.
spark-yarn-slave2.4.3Bibliothèques Apache Spark requises par les esclaves YARN.
sqoop-client1.4.7Client de ligne de commande Apache Sqoop.
tensorflow1.13.1Bibliothèque logicielle open source tensorflow pour le calcul numérique à performance élevée.
tez-on-yarn0.9.2Les bibliothèques et l'application tez YARN.
webserver2.4.25+Serveur HTTP Apache.
zeppelin-server0.8.1Portable basé sur le web qui permet l'analyse de données interactives.
zookeeper-server3.4.14Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe.
zookeeper-client3.4.14Client de ligne de commande ZooKeeper.

Classifications des configurations

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que hive-site.xml. Pour de plus amples informations, veuillez consulter Configuration des applications.

Classifications emr-5.26.0
Classifications Description

capacity-scheduler

Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop.

container-log4j

Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN.

core-site

Modifiez les valeurs dans le fichier core-site.xml de Hadoop.

emrfs-site

Modifiez les paramètres EMRFS.

flink-conf

Modifiez les paramètres flink-conf.yaml.

flink-log4j

Modifiez les paramètres log4j.properties Flink.

flink-log4j-yarn-session

Modifiez les paramètres de Flink log4j-fil-session.properties.

flink-log4j-cli

Modifiez les paramètres de propriétés Flink log4j-cli.

hadoop-env

Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop.

hadoop-log4j

Modifiez les valeurs dans le fichier log4j.properties de Hadoop.

hadoop-ssl-server

Modifier la configuration du serveur ssl hadoop

hadoop-ssl-client

Modifier la configuration du client ssl hadoop

hbase

Paramètres organisés par Amazon EMR pour Apache HBase.

hbase-env

Modifiez les valeurs dans l'environnement HBase.

hbase-log4j

Modifiez les valeurs dans le fichier hbase-log4j.properties de HBase.

hbase-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de HBase.

hbase-policy

Modifiez les valeurs dans le fichier hbase-policy.xml de HBase.

hbase-site

Modifiez les valeurs dans le fichier hbase-site.xml de HBase.

hdfs-encryption-zones

Configurez les zones de chiffrement HDFS.

hdfs-site

Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS.

hcatalog-env

Modifiez les valeurs dans l'environnement HCatalog.

hcatalog-server-jndi

Modifiez les valeurs dans jndi.properties de HCatalog.

hcatalog-server-proto-hive-site

Modifiez les valeurs dans proto-hive-site.xml de HCatalog.

hcatalog-webhcat-env

Modifiez les valeurs dans l'environnement WebHCat HCatalog.

hcatalog-webhcat-log4j2

Modifiez les valeurs dans log4j2.properties de HCatalog WebHCat.

hcatalog-webhcat-site

Modifiez les valeurs dans le fichier webhcat-site.xml de WebHCat HCatalog.

hive-beeline-log4j2

Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive.

hive-parquet-logging

Modifiez les valeurs dans le fichier parquet-logging.properties de Hive.

hive-env

Modifiez les valeurs dans l'environnement Hive.

hive-exec-log4j2

Modifiez les valeurs dans le fichier hive-exec-log4j2.properties de Hive.

hive-llap-daemon-log4j2

Modifiez les valeurs dans le fichier llap-daemon-log4j2.properties de Hive.

hive-log4j2

Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive.

hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Hive

hiveserver2-site

Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2

hue-ini

Modifiez les valeurs dans le fichier ini de Hue

httpfs-env

Modifiez les valeurs dans l'environnement HTTPFS.

httpfs-site

Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop.

hadoop-kms-acls

Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop.

hadoop-kms-env

Modifiez les valeurs dans l'environnement KMS de Hadoop.

hadoop-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop.

hadoop-kms-site

Modifiez les valeurs dans le fichier kms-site.xml de Hadoop.

jupyter-notebook-conf

Modifiez les valeurs dans le fichier jupyter_notebook_config.py de Jupyter Notebook.

jupyter-hub-conf

Modifiez les valeurs dans le fichier jupyterhub_config.py de JupyterHubs.

jupyter-s3-conf

Configuration de la persistance S3 de bloc-notes Jupyter.

jupyter-sparkmagic-conf

Modifiez les valeurs dans le fichier config.json de Sparkmagic.

livy-conf

Modifiez les valeurs dans le fichier livy.conf de Livy.

livy-env

Modifiez les valeurs dans l'environnement Livy.

livy-log4j

Modifiez les paramètres Livy log4j.properties.

mapred-env

Modifiez les valeurs dans l'environnement de l'application MapReduce.

mapred-site

Modifiez les valeurs dans le fichier mapred-site.xml de l'application MapReduce.

oozie-env

Modifiez les valeurs dans l'environnement d'Oozie.

oozie-log4j

Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie.

oozie-site

Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie.

phoenix-hbase-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix.

phoenix-hbase-site

Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix.

phoenix-log4j

Modifiez les valeurs dans le fichier log4j.properties de Phoenix.

phoenix-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix.

pig-env

Modifiez les valeurs dans l'environnement Pig.

pig-properties

Modifiez les valeurs dans le fichier pig.properties de Pig.

pig-log4j

Modifiez les valeurs dans le fichier log4j.properties de Pig.

presto-log

Modifiez les valeurs dans le fichier log.properties de Presto.

presto-config

Modifiez les valeurs dans le fichier config.properties de Presto.

presto-password-authenticator

Modifiez les valeurs dans le fichier password-authenticator.properties de Presto.

presto-env

Modifiez les valeurs dans le fichier presto-env.sh de Presto.

presto-node

Modifiez les valeurs dans le fichier node.properties de Presto.

presto-connector-blackhole

Modifiez les valeurs dans le fichier blackhole.properties de Presto.

presto-connector-cassandra

Modifiez les valeurs dans le fichier cassandra.properties de Presto.

presto-connector-hive

Modifiez les valeurs dans le fichier hive.properties de Presto.

presto-connector-jmx

Modifiez les valeurs dans le fichier jmx.properties de Presto.

presto-connector-kafka

Modifiez les valeurs dans le fichier kafka.properties de Presto.

presto-connector-localfile

Modifiez les valeurs dans le fichier localfile.properties de Presto.

presto-connector-memory

Modifiez les valeurs dans le fichier memory.properties de Presto.

presto-connector-mongodb

Modifiez les valeurs dans le fichier mongodb.properties de Presto.

presto-connector-mysql

Modifiez les valeurs dans le fichier mysql.properties de Presto.

presto-connector-postgresql

Modifiez les valeurs dans le fichier postgresql.properties de Presto.

presto-connector-raptor

Modifiez les valeurs dans le fichier raptor.properties de Presto.

presto-connector-redis

Modifiez les valeurs dans le fichier redis.properties de Presto.

presto-connector-redshift

Modifiez les valeurs dans le fichier redshift.properties de Presto.

presto-connector-tpch

Modifiez les valeurs dans le fichier tpch.properties de Presto.

presto-connector-tpcds

Modifiez les valeurs dans le fichier tpcds.properties de Presto.

recordserver-env

Modifiez les valeurs dans l'environnement RecordServer EMR.

recordserver-conf

Modifiez les valeurs dans le fichier erver.properties de l’environnement RecordServer EMR

recordserver-log4j

Modifiez les valeurs dans le fichier log4j.properties de l’environnement RecordServer EMR.

spark

Paramètres organisés par Amazon EMR pour Apache Spark.

spark-defaults

Modifiez les valeurs dans le fichier spark-defaults.conf de Spark.

spark-env

Modifiez les valeurs dans l'environnement Spark.

spark-hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Spark

spark-log4j

Modifiez les valeurs dans le fichier log4j.properties de Spark.

spark-metrics

Modifiez les valeurs dans le fichier metrics.properties de Spark.

sqoop-env

Modifiez les valeurs d'environnement Sqoop.

sqoop-oraoop-site

Modifiez les valeurs dans le fichier oraoop-site.xml d'OraOop Sqoop.

sqoop-site

Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop.

tez-site

Modifiez les valeurs dans le fichier tez-site.xml de Tez.

yarn-env

Modifiez les valeurs dans l'environnement YARN.

yarn-site

Modifiez les valeurs dans le fichier yarn-site.xml de YARN.

zeppelin-env

Modifiez les valeurs dans l'environnement Zeppelin.

zookeeper-config

Modifiez les valeurs dans le fichier zoo.cfg de ZooKeeper.

zookeeper-log4j

Modifiez les valeurs dans le fichier log4j.properties de ZooKeeper.