Amazon EMR version 5.32.0 - Amazon EMR

Amazon EMR version 5.32.0

Versions de l'application

Les applications suivantes sont prises en charge dans cette version : Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin, et ZooKeeper.

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois versions précédentes d'Amazon EMR (le cas échéant).

Pour obtenir un historique complet des versions des applications de chaque version d'Amazon EMR, consultez les rubriques suivantes :

Informations sur la version de l'application
emr-5.32.0 emr-5.31.1 emr-5.31.0 emr-5.30.2
Kit SDK AWS pour Java 1.11.8901.11.8521.11.8521.11.759
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Scala Non disponibleNon disponibleNon disponibleNon disponible
Delta - - - -
Flink1.11.21.11.01.11.01.10.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.131.4.131.4.13
HCatalog2.3.72.3.72.3.72.3.6
Hadoop2.10.12.10.02.10.02.8.5
Hive2.3.72.3.72.3.72.3.6
Hudi0.6.0-amzn-00.6.0-amzn-00.6.0-amzn-00.5.2-incubating
Hue4.8.04.7.14.7.14.6.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.0 - - -
JupyterHub1.1.01.1.01.1.01.1.0
Livy0.7.00.7.00.7.00.7.0
MXNet1.7.01.6.01.6.01.5.1
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.2.05.2.05.2.0
Phoenix4.14.34.14.34.14.34.14.3
Pig0.17.00.17.00.17.00.17.0
Presto0.240.10.238.30.238.30.232
Spark2.4.72.4.62.4.62.4.5
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.3.12.1.02.1.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL) - - - -
Zeppelin0.8.20.8.20.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

Notes de mise à jour

Les notes de mises à jour suivantes incluent des informations sur la version Amazon EMR 5.32.0. Les modifications ont été apportées à la version 5.31.0.

Date de parution initiale : 8 janvier 2021

Mises à niveau
  • Mise à niveau du connecteur Amazon Glue vers la version 1.14.0

  • Mise à niveau du kit SDK Amazon SageMaker Spark vers la version 1.4.1

  • Mise à niveau de AWS SDK for Java vers la version 1.11.890

  • Mise à niveau de la version 4.16.0 du connecteur DynamoDB d'EMR

  • Mise à niveau d'EMRFS vers la version 2.45.0

  • Mise à niveau des métriques d'analyse des journaux d'EMR vers la version 1.18.0

  • Mise à niveau d'EMR MetricsAndEventsApiGateway Client vers la version 1.5.0

  • Mise à niveau du serveur d'enregistrement EMR vers la version 1.8.0

  • Mise à niveau d'EMR S3 Dist CP vers la version 2.17.0

  • Mise à niveau d'EMR Secret Agent vers la version 1.7.0

  • Mise à niveau de Flink vers la version 1.11.2

  • Mise à niveau de Hadoop vers la version 2.10.1-amzn-0

  • Mise à niveau de Hive vers la version 2.3.7-amzn-3

  • Mise à niveau de Hue vers la version 4.8.0

  • Mise à niveau de Mxnet vers la version 1.7.0

  • Mise à niveau d'OpenCV vers la version 4.4.0

  • Mise à niveau de Presto vers la version 0.240.1-amzn-0

  • Mise à niveau de Spark vers la version 2.4.7-amzn-0

  • Mise à niveau de TensorFlow vers la version 2.3.1

Modifications, améliorations et problèmes résolus
  • Cette version corrige les problèmes liés à Amazon EMR Scaling lorsqu'il ne parvient pas à augmenter ou réduire la taille d'un cluster ou qu'il provoque des défaillances au niveau des applications.

  • Correction d'un problème où les demandes de mise à l'échelle échouaient pour un grand cluster très utilisé lorsque les démons Amazon EMR sur le cluster exécutaient des activités de surveillance de l'état, telles que la collecte de l'état des nœuds YARN et de l'état des nœuds HDFS. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état d'un nœud aux composants internes d'Amazon EMR.

  • Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de mise à l'échelle.

  • SPARK-29683. Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.

  • YARN-9011. Correction d'un problème où des échecs de tâches se produisaient en raison d'une condition de course dans la mise hors service de YARN lorsque le cluster essayait d'augmenter ou de réduire sa capacité.

  • Correction du problème des échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en veillant à ce que les états des nœuds soient toujours cohérents entre les démons Amazon EMR sur le cluster et YARN/HDFS.

  • Correction d'un problème où les opérations de cluster telles que la réduction d'échelle et la soumission d'étapes échouaient pour les clusters Amazon EMR activés avec l'authentification Kerberos. Cela était dû au fait que le démon Amazon EMR on-cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer de manière sécurisée avec HDFS/YARN s'exécutant sur le nœud primaire.

  • Les nouvelles versions d'Amazon EMR corrigent le problème avec une limite inférieure du « Nombre maximum de fichiers ouverts » sur l'ancienne version AL2 d'Amazon EMR. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.

  • Versions de composants mises à niveau.

  • Pour obtenir la liste des versions des composants, consultez la section À propos des versions d'Amazon EMR dans ce guide.

Nouvelles fonctionnalités
  • À partir d'Amazon EMR 5.32.0 et 6.5.0, le dimensionnement dynamique de l'exécuteur pour Apache Spark est activé par défaut. Pour activer ou désactiver cette fonctionnalité, vous pouvez utiliser le paramètre de configuration spark.yarn.heterogeneousExecutors.enabled.

  • État de prise en charge du service de métadonnées d'instance (IMDS) V2 : les composants Amazon EMR 5.23.1, 5.27.1 et 5.32 ou versions ultérieures utilisent IMDSv2 pour tous les appels IMDS. Pour les appels IMDS dans le code de votre application, vous pouvez utiliser à la fois IMDSv1 et IMDSv2, ou configurer l'IMDS pour utiliser uniquement IMDSv2 pour une sécurité accrue. Pour les autres versions 5.x d'EMR, la désactivation d'IMDSv1 entraîne l'échec du démarrage du cluster.

  • À partir d'Amazon EMR 5.32.0, vous pouvez lancer un cluster qui s'intègre nativement à Apache Ranger. Apache Ranger est un cadre open source permettant d'activer, de surveiller et de gérer la sécurité globale des données sur la plateforme Hadoop. Pour plus d'informations, consultez Apache Ranger. Grâce à l'intégration native, vous pouvez utiliser votre propre Apache Ranger pour appliquer un contrôle précis de l'accès aux données sur Amazon EMR. Consultez Intégration d'Amazon EMR à Apache Ranger dans le Guide de version Amazon EMR.

  • La version 5.32.0 d'Amazon EMR prend en charge Amazon EMR sur EKS. Pour en savoir plus sur la prise en main d'EMR sur EKS, consultez Qu'est-ce qu'Amazon EMR sur EKS ?.

  • La version 5.32.0 d'Amazon EMR prend en charge Amazon EMR Studio (version préliminaire). Pour plus d'informations sur la prise en main d'EMR Studio, consultez Amazon EMR Studio (version préliminaire).

  • Politiques gérées limitées : pour s'aligner sur les bonnes pratiques AWS, Amazon EMR a introduit des politiques gérées par défaut définies dans la version 2 d'EMR en remplacement des politiques qui seront obsolètes. Consultez Politiques gérées par Amazon EMR.

Problèmes connus
  • Pour les clusters de sous-réseaux privés Amazon EMR 6.3.0 et 6.2.0, vous ne pouvez pas accéder à l'interface utilisateur Web de Ganglia. Vous recevrez un message d'erreur « accès refusé (403) ». Les autres interfaces utilisateur Web, telles que Spark, Hue, JupyterHub, Zeppelin, Livy et Tez, fonctionnent normalement. L'accès à l'interface utilisateur Web de Ganglia sur les clusters de sous-réseaux publics fonctionne également normalement. Pour résoudre ce problème, redémarrez le service httpd sur le nœud primaire avec sudo systemctl restart httpd. Ce problème est résolu dans Amazon EMR 6.4.0.

  • Réduction de la limite du « Nombre maximum de fichiers ouverts » sur l'ancienne version AL2 [corrigée dans les nouvelles versions]. Versions Amazon EMR : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions d'Amazon Linux 2 (AL2), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon EMR sont créés avec l'AMI par défaut. Les versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon EMR incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, l'AMI par défaut Amazon EMR possède un paramètre ulimit par défaut de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 de la dernière AMI Amazon Linux 2. Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action d'amorçage (BA, bootstrap action) qui ajuste le paramètre ulimit lors de la création du cluster.

    Si vous utilisez une ancienne version d'Amazon EMR qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement le paramètre ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

    Définir explicitement un ulimit à partir de la ligne de commande
    1. Modifiez /etc/systemd/system/instance-controller.service pour ajouter les paramètres suivants à la section Service.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Redémarrez InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Définissez un ulimit à l'aide de l'action d'amorçage (BA)

    Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Important

    Les clusters Amazon EMR qui exécutent des AMI (Amazon Linux Machine Images) Amazon Linux ou Amazon Linux 2 utilisent le comportement Amazon Linux par défaut et ne téléchargent ni n'installent automatiquement les mises à jour importantes et critiques du noyau nécessitant un redémarrage. Ce comportement est identique à celui des autres instances Amazon EC2 exécutant l'AMI Amazon Linux par défaut. Si de nouvelles mises à jour logicielles Amazon Linux nécessitant un redémarrage (telles que les mises à jour du noyau, de NVIDIA et de CUDA) sont disponibles après la publication d'une version d'Amazon EMR, les instances de cluster Amazon EMR exécutant l'AMI par défaut ne téléchargent ni n'installent automatiquement ces mises à jour. Pour obtenir les mises à jour du noyau, vous pouvez personnaliser votre AMI Amazon EMR afin d'utiliser la dernière AMI Amazon Linux.

  • La prise en charge par console pour créer une configuration de sécurité spécifiant l'option d'intégration d'AWS Ranger n'est actuellement pas prise en charge dans la région GovCloud. La configuration de la sécurité peut être effectuée à l'aide de la CLI. Consultez Création de la configuration de sécurité EMR dans le Guide de gestion Amazon EMR.

  • Lorsque le chiffrement ATrestEncryption ou HDFS est activé sur un cluster qui utilise Amazon EMR 5.31.0 ou 5.32.0, les requêtes Hive génèrent l'exception d'exécution suivante.

    TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
  • Lorsque vous utilisez Spark avec le formatage de l'emplacement de partition Hive pour lire des données dans Amazon S3, et que vous exécutez Spark sur les versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0 d'Amazon EMR, vous pouvez rencontrer un problème qui empêche votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :

    • Deux partitions ou plus sont analysées à partir de la même table.

    • Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, s3://bucket/table/p=a est un préfixe de s3://bucket/table/p=a b.

    • Le premier caractère qui suit le préfixe dans le répertoire de l'autre partition a une valeur UTF-8 inférieure au caractère / (U+002F). Par exemple, le caractère d'espace (U+0020) qui apparaît entre a et b dans s3://bucket/table/p=a b entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : !"#$%&‘()*+,-. Pour plus d'informations, consultez Table de codage UTF-8 et les caractères Unicode.

    Pour contourner ce problème, définissez la configuration spark.sql.sources.fastS3PartitionDiscovery.enabled sur false dans la classification spark-defaults.

Versions des composants

Les composants installés par Amazon EMR avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. Les autres sont propres à Amazon EMR et installés pour les fonctions et processus système. Ceux-ci commencent généralement par emr ou aws. Les packages d'application de big data de la version Amazon EMR la plus récente sont généralement la dernière version trouvée dans la communauté. Nous nous efforçons de mettre à disposition les versions de la communauté dans Amazon EMR le plus rapidement possible.

Certains composants dans Amazon EMR diffèrent des versions de la communauté. Ces composants ont une étiquette de version sous la forme CommunityVersion-amzn-EmrVersion. EmrVersion commence à 0. Par exemple, si un composant de la communauté open source nommé myapp-component avec la version 2.2 a été modifié trois fois en vue de son inclusion dans différentes versions d'Amazon EMR, sa version apparaît sous le nom 2.2-amzn-2.

Composant Version Description
aws-sagemaker-spark-sdk1.4.1SDK Amazon SageMaker Spark
emr-ddb4.16.0Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop.
emr-goodies2.13.0Bibliothèques proposant plus de commodités pour l'écosystème Hadoop.
emr-kinesis3.5.0Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop.
emr-notebook-env1.1.0Environnement Conda pour le bloc-notes emr qui inclut la passerelle jupyter entreprise
emr-s3-dist-cp2.17.0Application de copie distribuée optimisée pour Amazon S3.
emr-s3-select1.6.0Connecteur S3Select EMR
emrfs2.45.0Connecteur Amazon S3 pour les applications de l'écosystème Hadoop.
flink-client1.11.2Applications et scripts client de la ligne de commande Apache Flink.
flink-jobmanager-config1.11.2Gestion des ressources sur les nœuds EMR pour le gestionnaire de tâches (JobManager) d'Apache Flink.
ganglia-monitor3.7.2Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia.
ganglia-metadata-collector3.7.2Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia.
ganglia-web3.7.1Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia.
hadoop-client2.10.1-amzn-0Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ».
hadoop-hdfs-datanode2.10.1-amzn-0HDFS node-level service for storing blocks.
hadoop-hdfs-library2.10.1-amzn-0Bibliothèque et client de ligne de commande HDFS
hadoop-hdfs-namenode2.10.1-amzn-0Service HDFS pour le suivi des noms de fichier et des emplacements de bloc.
hadoop-hdfs-journalnode2.10.1-amzn-0Service HDFS pour la gestion du journal du système de fichiers Hadoop sur les clusters HA.
hadoop-httpfs-server2.10.1-amzn-0Point de terminaison HTTP pour les opérations HDFS.
hadoop-kms-server2.10.1-amzn-0Serveur de gestion des clés cryptographiques basé sur l'API KeyProvider de Hadoop.
hadoop-mapred2.10.1-amzn-0Bibliothèques de moteur d'exécution MapReduce pour exécuter une application MapReduce.
hadoop-yarn-nodemanager2.10.1-amzn-0Service YARN pour la gestion de conteneurs sur un nœud individuel.
hadoop-yarn-resourcemanager2.10.1-amzn-0Service YARN pour l'allocation et la gestion des ressources de cluster et des applications distribuées.
hadoop-yarn-timeline-server2.10.1-amzn-0Service de récupération d'informations actuelles et historiques pour les applications YARN.
hbase-hmaster1.4.13Service pour un cluster HBase responsable de la coordination des régions et de l'exécution des commandes administratives.
hbase-region-server1.4.13Service pour desservir une ou plusieurs régions HBase.
hbase-client1.4.13Client de ligne de commande HBase.
hbase-rest-server1.4.13Service fournissant un point de terminaison RESTful HTTP pour HBase.
hbase-thrift-server1.4.13Service fournissant un point de terminaison Thrift à HBase.
hcatalog-client2.3.7-amzn-3Client de ligne de commande « hcat » pour la manipulation de hcatalog-server.
hcatalog-server2.3.7-amzn-3Service fournissant HCatalog, couche de gestion de table et de stockage pour les applications distribuées.
hcatalog-webhcat-server2.3.7-amzn-3Point de terminaison HTTP fournissant une interface REST à HCatalog.
hive-client2.3.7-amzn-3Client de ligne de commande Hive.
hive-hbase2.3.7-amzn-3Client Hive-hbase.
hive-metastore-server2.3.7-amzn-3Service pour accéder au metastore Hive, référentiel sémantique stockant des métadonnées pour SQL sur les opérations Hadoop.
hive-server22.3.7-amzn-3Service pour l'acceptation de requêtes Hive en tant que requêtes web.
hudi0.6.0-amzn-0Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée.
hudi-spark0.6.0-amzn-0Bibliothèque de solution groupée pour exécuter Spark avec Hudi.
hudi-presto0.6.0-amzn-0Bibliothèque de solution groupée pour exécuter Presto avec Hudi.
hue-server4.8.0Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop
jupyterhub1.1.0Serveur multi-utilisateurs pour blocs-notes Jupyter
livy-server0.7.0-incubatingInterface REST pour interagir avec Apache Spark
nginx1.12.1nginx [engine x] est un serveur HTTP et à proxy inverse
mahout-client0.13.0Bibliothèque pour la technologie Machine Learning.
mxnet1.7.0Bibliothèque flexible, évolutive et efficace pour le deep learning.
mariadb-server5.5.68Serveur de base de données MySQL.
nvidia-cuda10.1.243Pilotes Nvidia et boîte à outils Cuda
oozie-client5.2.0Client de ligne de commande Oozie.
oozie-server5.2.0Service pour l'acceptation des demandes de flux de travail Oozie.
opencv4.4.0Bibliothèque open source Vision par ordinateur
phoenix-library4.14.3-HBase-1.4Les bibliothèques phoenix pour serveur et client
phoenix-query-server4.14.3-HBase-1.4Un serveur léger fournissant un accès JDBC, ainsi qu'un accès au format JSON et de tampons de protocole, à l'API Avatica
presto-coordinator0.240.1-amzn-0Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker.
presto-worker0.240.1-amzn-0Service pour exécuter les éléments d'une requête.
presto-client0.240.1-amzn-0Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré.
pig-client0.17.0Client de ligne de commande Pig.
r3.4.3Projet R pour les calculs statistiques
ranger-kms-server1.2.0Système de gestion des clés Apache Ranger
spark-client2.4.7-amzn-0Clients de ligne de commande Spark.
spark-history-server2.4.7-amzn-0Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée.
spark-on-yarn2.4.7-amzn-0Moteur d'exécution en mémoire pour YARN.
spark-yarn-slave2.4.7-amzn-0Bibliothèques Apache Spark requises par les esclaves YARN.
sqoop-client1.4.7Client de ligne de commande Apache Sqoop.
tensorflow2.3.1Bibliothèque logicielle open source tensorflow pour le calcul numérique à performance élevée.
tez-on-yarn0.9.2Les bibliothèques et l'application tez YARN.
webserver2.4.25+Serveur HTTP Apache.
zeppelin-server0.8.2Portable basé sur le web qui permet l'analyse de données interactives.
zookeeper-server3.4.14Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe.
zookeeper-client3.4.14Client de ligne de commande ZooKeeper.

Classifications des configurations

Les classifications de configuration vous permettent de personnaliser les applications. Elles correspondent souvent à un fichier XML de configuration de l'application, tel que hive-site.xml. Pour de plus amples informations, veuillez consulter Configuration des applications.

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon EMR lance uniquement des actions de reconfiguration pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter Reconfigurer un groupe d'instances dans un cluster en cours d'exécution.

Classifications emr-5.32.0
Classifications Description Actions de reconfiguration

capacity-scheduler

Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop.

Restarts the ResourceManager service.

container-executor

Modifiez les valeurs dans le fichier container-executor.cfg de Hadoop YARN.

Not available.

container-log4j

Modifiez les valeurs dans le fichier container-log4j.properties de Hadoop YARN.

Not available.

core-site

Modifiez les valeurs dans le fichier core-site.xml de Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Modifiez les paramètres liés au docker.

Not available.

emrfs-site

Modifiez les paramètres EMRFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Modifiez les paramètres flink-conf.yaml.

Restarts Flink history server.

flink-log4j

Modifiez les paramètres log4j.properties Flink.

Restarts Flink history server.

flink-log4j-yarn-session

Modifiez les paramètres de Flink log4j-fil-session.properties.

Not available.

flink-log4j-cli

Modifiez les paramètres de propriétés Flink log4j-cli.

Restarts Flink history server.

hadoop-env

Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Modifiez les valeurs dans le fichier log4j.properties de Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Modifier la configuration du serveur ssl hadoop

Not available.

hadoop-ssl-client

Modifier la configuration du client ssl hadoop

Not available.

hbase

Paramètres organisés par Amazon EMR pour Apache HBase.

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Modifiez les valeurs dans l'environnement HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Modifiez les valeurs dans le fichier hbase-log4j.properties de HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Modifiez les valeurs dans le fichier hbase-policy.xml de HBase.

Not available.

hbase-site

Modifiez les valeurs dans le fichier hbase-site.xml de HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Configurez les zones de chiffrement HDFS.

Should not be reconfigured.

hdfs-site

Modifiez les valeurs dans le fichier hdfs-site.xml de HDFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Modifiez les valeurs dans l'environnement HCatalog.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Modifiez les valeurs dans jndi.properties de HCatalog.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Modifiez les valeurs dans proto-hive-site.xml de HCatalog.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Modifiez les valeurs dans l'environnement WebHCat HCatalog.

Restarts Hive WebHCat Server.

hcatalog-webhcat-log4j2

Modifiez les valeurs dans log4j2.properties de HCatalog WebHCat.

Restarts Hive WebHCat Server.

hcatalog-webhcat-site

Modifiez les valeurs dans le fichier webhcat-site.xml de WebHCat HCatalog.

Restarts Hive WebHCat Server.

hive-beeline-log4j2

Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive.

Not available.

hive-parquet-logging

Modifiez les valeurs dans le fichier parquet-logging.properties de Hive.

Not available.

hive-env

Modifiez les valeurs dans l'environnement Hive.

Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Modifiez les valeurs dans le fichier hive-exec-log4j2.properties de Hive.

Restarts HiveServer2 and HiveMetastore.

hive-llap-daemon-log4j2

Modifiez les valeurs dans le fichier llap-daemon-log4j2.properties de Hive.

Not available.

hive-log4j2

Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive.

Not available.

hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Hive

Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2

Not available.

hue-ini

Modifiez les valeurs dans le fichier ini de Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Modifiez les valeurs dans l'environnement HTTPFS.

Restarts Hadoop Httpfs service.

httpfs-site

Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop.

Not available.

hadoop-kms-env

Modifiez les valeurs dans l'environnement KMS de Hadoop.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop.

Not available.

hadoop-kms-site

Modifiez les valeurs dans le fichier kms-site.xml de Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Modifiez les valeurs dans l'environnement Hudi.

Not available.

jupyter-notebook-conf

Modifiez les valeurs dans le fichier jupyter_notebook_config.py de Jupyter Notebook.

Not available.

jupyter-hub-conf

Modifiez les valeurs dans le fichier jupyterhub_config.py de JupyterHubs.

Not available.

jupyter-s3-conf

Configuration de la persistance S3 de bloc-notes Jupyter.

Not available.

jupyter-sparkmagic-conf

Modifiez les valeurs dans le fichier config.json de Sparkmagic.

Not available.

livy-conf

Modifiez les valeurs dans le fichier livy.conf de Livy.

Restarts Livy Server.

livy-env

Modifiez les valeurs dans l'environnement Livy.

Restarts Livy Server.

livy-log4j

Modifiez les paramètres Livy log4j.properties.

Restarts Livy Server.

mapred-env

Modifiez les valeurs dans l'environnement de l'application MapReduce.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Modifiez les valeurs dans le fichier mapred-site.xml de l'application MapReduce.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Modifiez les valeurs dans l'environnement d'Oozie.

Restarts Oozie.

oozie-log4j

Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie.

Restarts Oozie.

oozie-site

Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix.

Not available.

phoenix-hbase-site

Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix.

Not available.

phoenix-log4j

Modifiez les valeurs dans le fichier log4j.properties de Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix.

Not available.

pig-env

Modifiez les valeurs dans l'environnement Pig.

Not available.

pig-properties

Modifiez les valeurs dans le fichier pig.properties de Pig.

Restarts Oozie.

pig-log4j

Modifiez les valeurs dans le fichier log4j.properties de Pig.

Not available.

presto-log

Modifiez les valeurs dans le fichier log.properties de Presto.

Restarts Presto-Server.

presto-config

Modifiez les valeurs dans le fichier config.properties de Presto.

Restarts Presto-Server.

presto-password-authenticator

Modifiez les valeurs dans le fichier password-authenticator.properties de Presto.

Not available.

presto-env

Modifiez les valeurs dans le fichier presto-env.sh de Presto.

Restarts Presto-Server.

presto-node

Modifiez les valeurs dans le fichier node.properties de Presto.

Not available.

presto-connector-blackhole

Modifiez les valeurs dans le fichier blackhole.properties de Presto.

Not available.

presto-connector-cassandra

Modifiez les valeurs dans le fichier cassandra.properties de Presto.

Not available.

presto-connector-hive

Modifiez les valeurs dans le fichier hive.properties de Presto.

Restarts Presto-Server.

presto-connector-jmx

Modifiez les valeurs dans le fichier jmx.properties de Presto.

Not available.

presto-connector-kafka

Modifiez les valeurs dans le fichier kafka.properties de Presto.

Not available.

presto-connector-localfile

Modifiez les valeurs dans le fichier localfile.properties de Presto.

Not available.

presto-connector-memory

Modifiez les valeurs dans le fichier memory.properties de Presto.

Not available.

presto-connector-mongodb

Modifiez les valeurs dans le fichier mongodb.properties de Presto.

Not available.

presto-connector-mysql

Modifiez les valeurs dans le fichier mysql.properties de Presto.

Not available.

presto-connector-postgresql

Modifiez les valeurs dans le fichier postgresql.properties de Presto.

Not available.

presto-connector-raptor

Modifiez les valeurs dans le fichier raptor.properties de Presto.

Not available.

presto-connector-redis

Modifiez les valeurs dans le fichier redis.properties de Presto.

Not available.

presto-connector-redshift

Modifiez les valeurs dans le fichier redshift.properties de Presto.

Not available.

presto-connector-tpch

Modifiez les valeurs dans le fichier tpch.properties de Presto.

Not available.

presto-connector-tpcds

Modifiez les valeurs dans le fichier tpcds.properties de Presto.

Not available.

ranger-kms-dbks-site

Modifiez les valeurs dans le fichier dbks-site.xml de Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-site

Modifiez les valeurs dans le fichier ranger-kms-site.xml de Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-env

Modifiez les valeurs dans l'environnement Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger KMS.

Not available.

ranger-kms-db-ca

Modifiez les valeurs du fichier CA sur S3 pour la connexion SSL MySQL avec Ranger KMS.

Not available.

recordserver-env

Modifiez les valeurs dans l'environnement RecordServer EMR.

Restarts EMR record server.

recordserver-conf

Modifiez les valeurs dans le fichier erver.properties de l’environnement RecordServer EMR

Restarts EMR record server.

recordserver-log4j

Modifiez les valeurs dans le fichier log4j.properties de l’environnement RecordServer EMR.

Restarts EMR record server.

spark

Paramètres organisés par Amazon EMR pour Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Modifiez les valeurs dans le fichier spark-defaults.conf de Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Modifiez les valeurs dans l'environnement Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Spark

Not available.

spark-log4j

Modifiez les valeurs dans le fichier log4j.properties de Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Modifiez les valeurs dans le fichier metrics.properties de Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Modifiez les valeurs d'environnement Sqoop.

Not available.

sqoop-oraoop-site

Modifiez les valeurs dans le fichier oraoop-site.xml d'OraOop Sqoop.

Not available.

sqoop-site

Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop.

Not available.

tez-site

Modifiez les valeurs dans le fichier tez-site.xml de Tez.

Restarts Oozie.

yarn-env

Modifiez les valeurs dans l'environnement YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Modifiez les valeurs dans le fichier yarn-site.xml de YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Modifiez les valeurs dans l'environnement Zeppelin.

Restarts Zeppelin.

zookeeper-config

Modifiez les valeurs dans le fichier zoo.cfg de ZooKeeper.

Restarts Zookeeper server.

zookeeper-log4j

Modifiez les valeurs dans le fichier log4j.properties de ZooKeeper.

Restarts Zookeeper server.