Amazon EMR version 6.2.0 - Amazon EMR

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Amazon EMR version 6.2.0

Versions d’application 6.2.0

Les applications suivantes sont prises en charge dans cette version : Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, PrestoSQL, Spark, Sqoop, TensorFlow, Tez, Zeppelin, et ZooKeeper.

Le tableau ci-dessous répertorie les versions d'application disponibles dans cette version d'Amazon EMR et les versions d'application des trois EMR versions précédentes d'Amazon (le cas échéant).

Pour obtenir un historique complet des versions des applications pour chaque version d'AmazonEMR, consultez les rubriques suivantes :

Informations sur la version de l'application
emr-6.2.0 emr-6.1.1 emr-6.1.0 emr-6.0.1
AWS SDKpour Java 1,18801,1,8281,1,8281,1,711
Python 2,7, 3,72,7, 3,72,7, 3,72,7, 3,7
Scala 2,1,102,1,102,1,102,1,10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.21.11.01.11.0 -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.6-amzn-02.2.52.2.52.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.6.0-amzn-10.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-1
Hue4.8.04.7.14.7.14.4.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.0 - - -
JupyterHub1.1.01.1.01.1.01.0.0
Livy0.7.00.7.00.7.00.6.0
MXNet1.7.01.6.01.6.01.5.1
Mahout - - - -
Oozie5.2.05.2.05.2.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.00.17.0 -
Presto0,238,30.2320.2320.230
Spark3.0.13.0.03.0.02.4.4
Sqoop1.4.71.4.71.4.7 -
TensorFlow2.3.12.1.02.1.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)343338338 -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

Notes de mise à jour 6.2.0

Les notes de mise à jour suivantes contiennent des informations relatives à la EMR version 6.2.0 d'Amazon. Les modifications ont été apportées à la version 6.1.0.

Date de parution initiale : 9 décembre 2020

Dernière mise à jour : 4 octobre 2021

Applications prises en charge
  • AWS SDK for Java version 1.11.828

  • emr-record-server version 1.7.0

  • Flink version 1.11.2

  • Ganglia version 3.7.2

  • Hadoop version 3.2.1-amzn-1

  • HBaseversion 2.2.6-amzn-0

  • HBase-operator-tools 1.0.0

  • HCatalogversion 3.1.2-amzn-0

  • Hive version 3.1.2-amzn-3

  • Hudi version 0.6.0-amzn-1

  • Hue version 4.8.0

  • JupyterHub version 1.1.0

  • Livy version 0.7.0

  • MXNetversion 1.7.0

  • Oozie version 5.2.0

  • Phoenix version 5.0.0

  • Pig version 0.17.0

  • Presto version 0.238.3-amzn-1

  • Presto SQL version 343

  • Spark version 3.0.1-amzn-0

  • spark-rapids 0.2.0

  • TensorFlow version 2.3.1

  • Zeppelin version 0.9.0-preview1

  • Zookeeper version 3.4.14

  • Connecteurs et pilotes : Connecteur DynamoDB 4.16.0

Nouvelles fonctionnalités
  • HBase: Suppression du changement de nom lors de la phase de validation et ajout d'un HFile suivi persistant. Consultez la section HFileSuivi permanent dans le guide de EMR mise à jour d'Amazon.

  • HBase: Rétroporté Créez une configuration qui oblige à mettre en cache les blocs lors du compactage.

  • PrestoDB : améliorations apportées à l'élimination dynamique des partitions. Join Reorder basée sur des règles fonctionne sur des données non partitionnées.

  • Politiques gérées délimitées : pour s'aligner sur AWS meilleures pratiques, Amazon EMR a introduit des politiques gérées par EMR défaut définies dans la version v2 en remplacement des politiques qui seront obsolètes. Consultez les politiques EMR gérées par Amazon.

  • État du support du service de métadonnées d'instance (IMDS) V2 : pour Amazon EMR 6.2 ou version ultérieure, les EMR composants Amazon sont utilisés IMDSv2 pour tous les IMDS appels. Pour les IMDS appels dans le code de votre application, vous pouvez utiliser les deux IMDSv1 etIMDSv2, ou les configurer pour qu'IMDSils ne soient utilisés que IMDSv2 pour renforcer la sécurité. Si vous la désactivez IMDSv1 dans les versions antérieures d'Amazon EMR 6.x, cela entraîne un échec du démarrage du cluster.

Modifications, améliorations et problèmes résolus
  • Il s'agit d'une version destinée à résoudre les problèmes liés à Amazon EMR Scaling lorsqu'il ne parvient pas à augmenter ou à réduire la taille d'un cluster ou entraîne des défaillances d'applications.

  • Correction d'un problème en raison duquel les demandes de dimensionnement échouaient pour un cluster volumineux et très utilisé lorsque des EMR démons Amazon présents sur le cluster exécutaient des activités de vérification de l'état, telles que la collecte de l'état du nœud et HDFS de l'état du YARN nœud. Cela était dû au fait que les démons du cluster n'étaient pas en mesure de communiquer les données d'état de santé d'un nœud aux composants internes d'Amazon. EMR

  • Démons EMR intégrés au cluster améliorés pour suivre correctement l'état des nœuds lorsque les adresses IP sont réutilisées afin d'améliorer la fiabilité lors des opérations de dimensionnement.

  • SPARK-29683. Correction d'un problème où les tâches échouaient lors de la réduction de la taille du cluster, car Spark supposait que tous les nœuds disponibles étaient sur la liste de refus.

  • YARN-9011. Correction d'un problème en raison duquel des échecs de tâches se produisaient en raison d'une course à la YARN mise hors service lorsque le cluster tentait d'augmenter ou de réduire son échelle.

  • Résolution d'un problème lié aux échecs d'étapes ou de tâches lors de la mise à l'échelle du cluster en garantissant que les états des nœuds sont toujours cohérents entre les EMR démons Amazon du cluster et/. YARN HDFS

  • Correction d'un problème en raison duquel les opérations de cluster telles que la réduction et la soumission par étapes échouaient pour les EMR clusters Amazon activés avec l'authentification Kerberos. Cela est dû au fait que le démon Amazon EMR on-cluster n'a pas renouvelé le ticket Kerberos, qui est nécessaire pour communiquer en toute sécurité HDFS YARN avec/exécuté sur le nœud principal.

  • Les nouvelles EMR versions d'Amazon résolvent le problème en abaissant la limite maximale de fichiers ouverts sur les anciennes versions AL2 d'AmazonEMR. EMRLes versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon incluent désormais un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé.

  • Spark : amélioration des performances dans l'environnement d'exécution de Spark.

Problèmes connus
  • Amazon EMR 6.2 possède des autorisations incorrectes définies sur le fichier libinstance-controller-java /etc/cron.d/ dans la version 6.2.0. EMR Les autorisations sur le fichier sont 645 (-rw-r--r-x), alors qu'elles devraient être 644 (-rw-r--r--). Par conséquent, la EMR version 6.2 d'Amazon n'enregistre pas les journaux d'état des instances et le répertoire /emr/instance-logs est vide. Ce problème est résolu dans Amazon EMR 6.3.0 et versions ultérieures.

    Pour contourner ce problème, exécutez le script suivant en tant qu'action d'amorçage lors du lancement du cluster.

    #!/bin/bash sudo chmod 644 /etc/cron.d/libinstance-controller-java
  • Pour les clusters de sous-réseaux privés Amazon EMR 6.2.0 et 6.3.0, vous ne pouvez pas accéder à l'interface utilisateur Web de Ganglia. Vous recevrez un message d'erreur « accès refusé (403) ». D'autres sites WebUIs, tels que Spark, Hue JupyterHub, Zeppelin, Livy et Tez, fonctionnent normalement. L'accès à l'interface utilisateur Web de Ganglia sur les clusters de sous-réseaux publics fonctionne également normalement. Pour résoudre ce problème, redémarrez le service httpd sur le nœud primaire avec sudo systemctl restart httpd. Ce problème est résolu dans Amazon EMR 6.4.0.

  • Amazon EMR 6.2.0 présente un problème selon lequel httpd échoue continuellement, ce qui rend Ganglia indisponible. Le message d'erreur « Impossible de se connecter au serveur » s'affiche. Pour réparer un cluster déjà en cours d'exécution présentant ce problème, SSH accédez au nœud principal du cluster et ajoutez la ligne au fichier httpd.conf situé Listen 80 à l'emplacement/etc/httpd/conf/httpd.conf. Ce problème est résolu dans Amazon EMR 6.3.0.

  • HTTPDéchoue sur les clusters EMR 6.2.0 lorsque vous utilisez une configuration de sécurité. Cela rend l'interface utilisateur de l'application web Ganglia indisponible. Pour accéder à l'interface utilisateur de l'application web Ganglia, ajoutez Listen 80 au fichier /etc/httpd/conf/httpd.conf sur le nœud primaire de votre cluster. Pour plus d'informations sur la connexion à votre cluster, consultez la section Se connecter au nœud principal à l'aide SSH de

    EMRLes ordinateurs portables ne parviennent pas non plus à établir de connexion avec les clusters EMR 6.2.0 lorsque vous utilisez une configuration de sécurité. Le bloc-notes ne parviendra pas à répertorier les noyaux et à soumettre les tâches Spark. Nous vous recommandons d'utiliser EMR plutôt EMR des blocs-notes avec une autre version d'Amazon.

  • Réduction de la limite du « nombre maximum de fichiers ouverts » pour les anciennes versions AL2 [corrigée dans les nouvelles versions]. EMRLes versions Amazon : emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 et emr-6.2.0 sont basées sur les anciennes versions de Linux ofAmazon 2 (), qui ont un paramètre ulimit inférieur pour le « Nombre maximum de fichiers ouverts » lorsque les clusters Amazon sont créés avec la valeur par AL2 défaut. EMR AMI EMRLes versions 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 et versions ultérieures d'Amazon incluent un correctif permanent avec un paramètre « Nombre maximum de fichiers ouverts » plus élevé. Les versions dont la limite de fichiers ouverts est inférieure provoquent l'erreur « Trop de fichiers ouverts » lors de la soumission d'une tâche Spark. Dans les versions concernées, le paramètre ulimit EMR par défaut d'Amazon AMI est de 4096 pour le « Nombre maximum de fichiers ouverts », ce qui est inférieur à la limite de fichiers de 65536 sous Linux 2. latestAmazon AMI Le paramètre ulimit inférieur pour « Nombre maximum de fichiers ouverts » entraîne l'échec de la tâche Spark lorsque le pilote et l'exécuteur Spark tentent d'ouvrir plus de 4 096 fichiers. Pour résoudre ce problème, Amazon EMR dispose d'un script d'action bootstrap (BA) qui ajuste le paramètre ulimit lors de la création du cluster.

    Si vous utilisez une ancienne EMR version d'Amazon qui ne contient pas de solution permanente à ce problème, la solution suivante vous permet de définir explicitement l'ulimit du contrôleur d'instance sur un maximum de 65536 fichiers.

    Définir explicitement un ulimit à partir de la ligne de commande
    1. Modifiez /etc/systemd/system/instance-controller.service pour ajouter les paramètres suivants à la section Service.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Redémarrer InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Définissez un ulimit à l'aide de l'action d'amorçage (BA)

    Vous pouvez également utiliser un script d'action d'amorçage (BA) pour configurer ulimit du contrôleur d'instance à 65536 fichiers lors de la création du cluster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Important

    Amazon EMR 6.1.0 et 6.2.0 incluent un problème de performance qui peut affecter de manière critique toutes les opérations d'insertion, de modification et de suppression de Hudi. Si vous envisagez d'utiliser Hudi avec Amazon EMR 6.1.0 ou 6.2.0, vous devez contacter AWS support pour obtenir un RPM Hudi patché.

  • Important

    EMRles clusters qui exécutent Amazon Linux ou Amazon Linux 2 Amazon Machine Images (AMIs) utilisent le comportement par défaut d'Amazon Linux et ne téléchargent ni n'installent automatiquement les mises à jour importantes et critiques du noyau nécessitant un redémarrage. Ce comportement est identique à celui des autres EC2 instances Amazon qui exécutent Amazon Linux par défautAMI. Si de nouvelles mises à jour logicielles Amazon Linux nécessitant un redémarrage (telles que le noyau et les CUDA mises à jour) sont disponibles après la EMR sortie d'une version d'Amazon, les instances de EMR cluster qui exécutent la version par défaut AMI ne téléchargent ni n'installent automatiquement ces mises à jour. NVIDIA Pour obtenir les mises à jour du noyau, vous pouvez personnaliser votre Amazon EMR AMI pour qu'il utilise la dernière version d'Amazon Linux AMI.

  • Les artefacts Amazon EMR 6.2.0 Maven ne sont pas publiés. Ils seront publiés avec une future version d'AmazonEMR.

  • Le HFile suivi permanent à l'aide de la table système HBase Storefile ne prend pas en charge la fonctionnalité de réplication HBase régionale. Pour plus d'informations sur HBase la réplication régionale, consultez la section Nombre élevé de lectures disponibles cohérentes avec la chronologie.

  • Différences entre les versions de bucket d'Amazon EMR EMR 6.x et 5.x Hive

    EMRLa version 5.x utilise OOS Apache Hive 2, tandis que la version EMR 6.x utilise OOS Apache Hive 3. La version open source Hive2 utilise la version 1 de Bucketing, tandis que la version open source Hive3 utilise la version 2. Cette différence de version entre Hive 2 (EMR5.x) et Hive 3 (EMR6.x) signifie que le hachage des compartiments Hive fonctionne différemment. Consultez l'exemple ci-dessous.

    Le tableau suivant est un exemple créé dans les versions EMR 6.x et EMR 5.x, respectivement.

    -- Using following LOCATION in EMR 6.x CREATE TABLE test_bucketing (id INT, desc STRING) PARTITIONED BY (day STRING) CLUSTERED BY(id) INTO 128 BUCKETS LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/'; -- Using following LOCATION in EMR 5.x LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';

    Insérer les mêmes données dans les versions EMR 6.x et EMR 5.x.

    INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data'); INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');

    La vérification de l'emplacement S3 montre que le nom du fichier de compartiment est différent, car la fonction de hachage est différente entre EMR 6.x (Hive 3) et EMR 5.x (Hive 2).

    [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/ 2020-10-21 20:35:16 13 000025_0 2020-10-21 20:35:22 14 000121_0 [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/ 2020-10-21 20:32:07 13 000066_0 2020-10-21 20:32:51 14 000072_0

    Vous pouvez également voir la différence de version en exécutant la commande suivante dans Hive CLI dans la version EMR 6.x. Notez qu'il renvoie la version 2 de compartimentation.

    hive> DESCRIBE FORMATTED test_bucketing; ... Table Parameters: bucketing_version 2 ...
  • Problème connu dans les clusters dotés de plusieurs nœuds primaires et d'une authentification Kerberos

    Si vous exécutez des clusters avec plusieurs nœuds principaux et une authentification Kerberos dans les EMR versions 5.20.0 et ultérieures d'Amazon, vous risquez de rencontrer des problèmes avec les opérations de cluster, telles que la réduction ou la soumission par étapes, une fois le cluster en cours d'exécution pendant un certain temps. La durée dépend de la période de validité du ticket Kerberos que vous avez définie. Le problème de réduction d'échelle a un impact à la fois sur la réduction d'échelle automatique et sur les demandes de réduction d'échelle explicites que vous avez soumises. D'autres opérations de cluster peuvent également être affectées.

    Solution :

    • SSHen tant qu'hadooputilisateur du nœud principal du EMR cluster comportant plusieurs nœuds principaux.

    • Exécutez la commande suivante pour renouveler le ticket Kerberos pour l'utilisateur hadoop.

      kinit -kt <keytab_file> <principal>

      Généralement, le fichier keytab se trouve dans /etc/hadoop.keytab et le principal se présente sous la forme de hadoop/<hostname>@<REALM>.

    Note

    Cette solution de contournement sera effective pendant toute la durée de validité du ticket Kerberos. Cette durée est de 10 heures par défaut, mais peut être configurée par vos paramètres Kerberos. Vous devez exécuter à nouveau la commande ci-dessus une fois le ticket Kerberos expiré.

  • Lorsque vous utilisez Spark avec le formatage de l'emplacement des partitions Hive pour lire des données dans Amazon S3 et que vous exécutez Spark sur Amazon EMR versions 5.30.0 à 5.36.0 et 6.2.0 à 6.9.0, vous pouvez rencontrer un problème empêchant votre cluster de lire correctement les données. Cela peut se produire si vos partitions présentent toutes les caractéristiques suivantes :

    • Deux partitions ou plus sont analysées à partir de la même table.

    • Au moins un chemin de répertoire de partition est un préfixe d'au moins un autre chemin de répertoire de partition, par exemple, s3://bucket/table/p=a est un préfixe de s3://bucket/table/p=a b.

    • Le premier caractère qui suit le préfixe dans l'autre répertoire de partitions possède une valeur UTF -8 inférieure au / caractère (U+002F). Par exemple, le caractère d'espace (U+0020) qui apparaît entre a et b dans s3://bucket/table/p=a b entre dans cette catégorie. Notez qu'il existe 14 autres caractères de non-contrôle : !"#$%&‘()*+,-. Pour plus d'informations, consultez la table de codage UTF -8 et les caractères Unicode.

    Pour contourner ce problème, définissez la configuration spark.sql.sources.fastS3PartitionDiscovery.enabled sur false dans la classification spark-defaults.

Versions des composants 6.2.0

Les composants qu'Amazon EMR installe avec cette version sont répertoriés ci-dessous. Certains sont installés dans le cadre de packages d'application de Big Data. D'autres sont propres à Amazon EMR et sont installés pour les processus et les fonctionnalités du système. Ceux-ci commencent généralement par emr ou aws. Les packages d'applications Big Data de la dernière EMR version d'Amazon sont généralement les dernières versions disponibles dans la communauté. Nous mettons les publications communautaires à disposition sur Amazon EMR le plus rapidement possible.

Certains composants d'Amazon EMR diffèrent des versions communautaires. Ces composants ont une étiquette de version sous la forme CommunityVersion-amzn-EmrVersion. EmrVersion commence à 0. Par exemple, si un composant communautaire open source nommé myapp-component avec la version 2.2 a été modifié trois fois pour être inclus dans différentes EMR versions d'Amazon, sa version de publication est répertoriée sous le nom de2.2-amzn-2.

Composant Version Description
aws-sagemaker-spark-sdk1.4.1Amazon SageMaker Spark SDK
emr-ddb4,16,0Connecteur Amazon DynamoDB pour les applications de l'écosystème Hadoop.
emr-goodies3.1.0Bibliothèques proposant plus de commodités pour l'écosystème Hadoop.
emr-kinesis3.5.0Connecteur Amazon Kinesis pour les applications de l'écosystème Hadoop.
emr-notebook-env1.0.0Environnement Conda pour le bloc-notes EMR qui inclut la passerelle Jupyter Entreprise
emr-s3-dist-cp2.16.0Application de copie distribuée optimisée pour Amazon S3.
emr-s3-select2.0.0EMRConnecteur S3Select
emrfs2,44,0Connecteur Amazon S3 pour les applications de l'écosystème Hadoop.
flink-client1.11.2Applications et scripts client de la ligne de commande Apache Flink.
flink-jobmanager-config1.11.2Gestion des ressources sur les EMR nœuds pour Apache Flink JobManager.
ganglia-monitor3.7.2Agent Ganglia intégré pour les applications de l'écosystème Hadoop avec agent de surveillance Ganglia.
ganglia-metadata-collector3.7.2Collecteur de métadonnées Ganglia pour agréger les métriques des agents de surveillance Ganglia.
ganglia-web3.7.1Application web pour afficher les métriques collectées par le collecteur de métadonnées Ganglia.
hadoop-client3.2.1-amzn-2Clients de ligne de commande Hadoop tels que « hdfs », « hadoop » ou « yarn ».
hadoop-hdfs-datanode3.2.1-amzn-2HDFSservice au niveau du nœud pour le stockage de blocs.
hadoop-hdfs-library3.2.1-amzn-2HDFSclient et bibliothèque en ligne de commande
hadoop-hdfs-namenode3.2.1-amzn-2HDFSservice de suivi des noms de fichiers et de l'emplacement des blocs.
hadoop-hdfs-journalnode3.2.1-amzn-2HDFSservice de gestion du journal du système de fichiers Hadoop sur les clusters HA.
hadoop-httpfs-server3.2.1-amzn-2HTTPpoint de terminaison pour HDFS les opérations.
hadoop-kms-server3.2.1-amzn-2Serveur de gestion des clés cryptographiques basé sur Hadoop. KeyProvider API
hadoop-mapred3.2.1-amzn-2MapReduce bibliothèques de moteurs d'exécution pour exécuter une MapReduce application.
hadoop-yarn-nodemanager3.2.1-amzn-2YARNservice de gestion des conteneurs sur un nœud individuel.
hadoop-yarn-resourcemanager3.2.1-amzn-2YARNservice d'allocation et de gestion des ressources du cluster et des applications distribuées.
hadoop-yarn-timeline-server3.2.1-amzn-2Service de récupération des informations actuelles et historiques pour les YARN applications.
hbase-hmaster2.2.6-amzn-0Service pour un HBase cluster chargé de la coordination des régions et de l'exécution des commandes administratives.
hbase-region-server2.2.6-amzn-0Service destiné à desservir une ou plusieurs HBase régions.
hbase-client2.2.6-amzn-0HBaseclient en ligne de commande.
hbase-rest-server2.2.6-amzn-0Service fournissant un RESTful HTTP point de terminaison pourHBase.
hbase-thrift-server2.2.6-amzn-0Service fournissant un point de terminaison Thrift pour. HBase
hcatalog-client3.1.2-amzn-3Client de ligne de commande « hcat » pour la manipulation de hcatalog-server.
hcatalog-server3.1.2-amzn-3Fourniture de servicesHCatalog, table et couche de gestion du stockage pour les applications distribuées.
hcatalog-webhcat-server3.1.2-amzn-3HTTPpoint de terminaison fournissant une REST interface pourHCatalog.
hive-client3.1.2-amzn-3Client de ligne de commande Hive.
hive-hbase3.1.2-amzn-3Client Hive-hbase.
hive-metastore-server3.1.2-amzn-3Service d'accès au métastore Hive, un référentiel sémantique stockant des métadonnées pour SQL les opérations sur Hadoop.
hive-server23.1.2-amzn-3Service pour l'acceptation de requêtes Hive en tant que requêtes web.
hudi0.6.0-amzn-1Infrastructure de traitement incrémentiel pour implémenter un pipeline à faible latence et à efficacité élevée.
hudi-presto0.6.0-amzn-1Bibliothèque de solution groupée pour exécuter Presto avec Hudi.
hudi-prestosql0.6.0-amzn-1Bibliothèque de bundles pour exécuter Presto SQL avec Hudi.
hudi-spark0.6.0-amzn-1Bibliothèque de solution groupée pour exécuter Spark avec Hudi.
hue-server4.8.0Application web pour l'analyse des données à l'aide d'applications de l'écosystème Hadoop
jupyterhub1.1.0Serveur multi-utilisateurs pour blocs-notes Jupyter
livy-server0.7.0-incubatingRESTinterface pour interagir avec Apache Spark
nginx1.12.1nginx [engine x] est HTTP un serveur proxy inverse
mxnet1.7.0Bibliothèque flexible, évolutive et efficace pour le deep learning.
mariadb-server5.5.64+Serveur de base de données MariaDB.
nvidia-cuda10,1243Pilotes Nvidia et boîte à outils Cuda
oozie-client5.2.0Client de ligne de commande Oozie.
oozie-server5.2.0Service pour l'acceptation des demandes de flux de travail Oozie.
opencv4.4.0Bibliothèque open source Vision par ordinateur
phoenix-library5,0,0- -2,0 HBaseLes bibliothèques phoenix pour serveur et client
phoenix-query-server5,0,0- -2,0 HBaseUn serveur léger fournissant un JDBC accès ainsi que des tampons de protocole et un accès JSON au format à l'Avatica API
presto-coordinator0.238.3-amzn-1Service pour accepter les requêtes et gérer l'exécution des requêtes des composants presto-worker.
presto-worker0.238.3-amzn-1Service pour exécuter les éléments d'une requête.
presto-client0.238.3-amzn-1Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré.
prestosql-coordinator343Service pour accepter les requêtes et gérer l'exécution des requêtes des composants prestosql-workers.
prestosql-worker343Service pour exécuter les éléments d'une requête.
prestosql-client343Client de ligne de commande Presto installé sur les maîtres de secours d'un cluster haute disponibilité où le serveur Presto n'est pas démarré.
pig-client0.17.0Client de ligne de commande Pig.
r3.4.3Projet R pour les calculs statistiques
ranger-kms-server2.0.0Système de gestion des clés Apache Ranger
spark-client3.0.1-amzn-0Clients de ligne de commande Spark.
spark-history-server3.0.1-amzn-0Interface web pour afficher des événements enregistrés pour la durée de vie d'une application Spark terminée.
spark-on-yarn3.0.1-amzn-0Moteur d'exécution en mémoire pour. YARN
spark-yarn-slave3.0.1-amzn-0Bibliothèques Apache Spark nécessaires YARN aux esclaves.
spark-rapids0.2.0RAPIDSPlugin Nvidia Spark qui accélère Apache Spark avecGPUs.
sqoop-client1.4.7Client de ligne de commande Apache Sqoop.
tensorflow2.3.1TensorFlow bibliothèque de logiciels open source pour le calcul numérique de haute performance.
tez-on-yarn0.9.2L'YARNapplication Tez et les bibliothèques.
webserver2.4.41+HTTPserveur Apache.
zeppelin-server0.9.0-preview1Portable basé sur le web qui permet l'analyse de données interactives.
zookeeper-server3.4.14Service centralisé conçu pour la conservation des informations de configuration, l'affectation de noms, la synchronisation distribuée et la fourniture de services de groupe.
zookeeper-client3.4.14ZooKeeper client en ligne de commande.

Classifications des configurations 6.2.0

Les classifications de configuration vous permettent de personnaliser les applications. Ils correspondent souvent à un XML fichier de configuration de l'application, tel quehive-site.xml. Pour de plus amples informations, veuillez consulter Configuration des applications.

Les actions de reconfiguration se produisent lorsque vous spécifiez une configuration pour les groupes d'instances d'un cluster en cours d'exécution. Amazon lance des actions de reconfiguration EMR uniquement pour les classifications que vous modifiez. Pour de plus amples informations, veuillez consulter Reconfigurer un groupe d'instances dans un cluster en cours d'exécution.

Classifications emr-6.2.0
Classifications Description Actions de reconfiguration

capacity-scheduler

Modifiez les valeurs dans le fichier capacity-scheduler.xml de Hadoop.

Restarts the ResourceManager service.

container-executor

Modifiez les valeurs dans le fichier container-executor.cfg YARN de Hadoop.

Not available.

container-log4j

Modifiez les valeurs dans le fichier container-log4j.properties YARN de Hadoop.

Not available.

core-site

Modifiez les valeurs dans le fichier core-site.xml de Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Modifiez les paramètres liés au docker.

Not available.

emrfs-site

Modifiez EMRFS les paramètres.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Modifiez les paramètres flink-conf.yaml.

Not available.

flink-log4j

Modifiez les paramètres log4j.properties Flink.

Not available.

flink-log4j-yarn-session

Modifiez les paramètres du j-yarn-session fichier .properties de Flink log4.

Not available.

flink-log4j-cli

Modifiez les paramètres de propriétés Flink log4j-cli.

Not available.

hadoop-env

Modifiez les valeurs dans l'environnement Hadoop pour tous les composants Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Modifiez les valeurs dans le fichier log4j.properties de Hadoop.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Modifier la configuration du serveur ssl hadoop

Not available.

hadoop-ssl-client

Modifier la configuration du client ssl hadoop

Not available.

hbase

Paramètres EMR sélectionnés par Amazon pour Apache. HBase

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Changez les valeurs dans HBase l'environnement.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Modifiez les valeurs dans le fichier HBase hbase-log4j.properties.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Modifiez les valeurs dans le fichier HBase hadoop-metrics2-hbase.properties.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Modifiez les valeurs dans HBase le fichier hbase-policy.xml.

Not available.

hbase-site

Modifiez les valeurs dans HBase le fichier hbase-site.xml.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Configurez les zones de HDFS chiffrement.

This classification should not be reconfigured.

hdfs-env

Modifiez les valeurs dans l'HDFSenvironnement.

Restarts Hadoop HDFS ZKFC.

hdfs-site

Modifiez les valeurs dans HDFS le fichier hdfs-site.xml.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Changez les valeurs dans HCatalog l'environnement.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Modifiez les valeurs dans le fichier HCatalog jndi.properties.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Modifiez les valeurs dans le HCatalog proto-hive-site fichier .xml.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Modifiez les valeurs dans ebHCat l'environnement de HCatalog W.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

Modifiez les valeurs dans le fichier ebHCat log4j2.properties de HCatalog W.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

Modifiez les valeurs dans ebHCat le fichier webhcat-site.xml de HCatalog W.

Restarts Hive WebHCat server.

hive

Paramètres EMR sélectionnés par Amazon pour Apache Hive.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Modifiez les valeurs dans le fichier beeline-log4j2.properties de Hive.

Not available.

hive-parquet-logging

Modifiez les valeurs dans le fichier parquet-logging.properties de Hive.

Not available.

hive-env

Modifiez les valeurs dans l'environnement Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Modifiez les valeurs dans le fichier hive-exec-log 4j2.properties de Hive.

Not available.

hive-llap-daemon-log4j2

Modifiez les valeurs dans le fichier llap-daemon-log 4j2.properties de Hive.

Not available.

hive-log4j2

Modifiez les valeurs dans le fichier hive-log4j2.properties de Hive.

Not available.

hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Hive

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Modifiez les valeurs dans le fichier hiveserver2-site.xml de Hive Server2

Not available.

hue-ini

Modifiez les valeurs dans le fichier ini de Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Modifiez les valeurs dans l'HTTPFSenvironnement.

Restarts Hadoop Httpfs service.

httpfs-site

Modifiez les valeurs dans le fichier httpfs-site.xml de Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Modifiez les valeurs dans le fichier kms-acls.xml de Hadoop.

Not available.

hadoop-kms-env

Modifiez les valeurs dans l'environnement Hadoop. KMS

Restarts Hadoop-KMS service.

hadoop-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Hadoop.

Not available.

hadoop-kms-site

Modifiez les valeurs dans le fichier kms-site.xml de Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Modifiez les valeurs dans l'environnement Hudi.

Not available.

jupyter-notebook-conf

Modifiez les valeurs dans le fichier jupyter_notebook_config.py de Jupyter Notebook.

Not available.

jupyter-hub-conf

Modifiez les valeurs dans JupyterHubs le fichier jupyterhub_config.py.

Not available.

jupyter-s3-conf

Configuration de la persistance S3 de bloc-notes Jupyter.

Not available.

jupyter-sparkmagic-conf

Modifiez les valeurs dans le fichier config.json de Sparkmagic.

Not available.

livy-conf

Modifiez les valeurs dans le fichier livy.conf de Livy.

Restarts Livy Server.

livy-env

Modifiez les valeurs dans l'environnement Livy.

Restarts Livy Server.

livy-log4j

Modifiez les paramètres Livy log4j.properties.

Restarts Livy Server.

mapred-env

Modifiez les valeurs dans l'environnement de l' MapReduce application.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Modifiez les valeurs dans le fichier mapred-site.xml de l' MapReduce application.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Modifiez les valeurs dans l'environnement d'Oozie.

Restarts Oozie.

oozie-log4j

Modifier les valeurs dans le fichier oozie-log4j.properties d'Oozie.

Restarts Oozie.

oozie-site

Modifiez les valeurs dans le fichier oozie-site.xml d'Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-hbase.properties de Phoenix.

Not available.

phoenix-hbase-site

Modifiez les valeurs dans le fichier hbase-site.xml de Phoenix.

Not available.

phoenix-log4j

Modifiez les valeurs dans le fichier log4j.properties de Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Modifiez les valeurs dans le fichier hadoop-metrics2-phoenix.properties de Phoenix.

Not available.

pig-env

Modifiez les valeurs dans l'environnement Pig.

Not available.

pig-properties

Modifiez les valeurs dans le fichier pig.properties de Pig.

Restarts Oozie.

pig-log4j

Modifiez les valeurs dans le fichier log4j.properties de Pig.

Not available.

presto-log

Modifiez les valeurs dans le fichier log.properties de Presto.

Restarts Presto-Server (for PrestoDB)

presto-config

Modifiez les valeurs dans le fichier config.properties de Presto.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Modifiez les valeurs dans le fichier password-authenticator.properties de Presto.

Not available.

presto-env

Modifiez les valeurs dans le fichier presto-env.sh de Presto.

Restarts Presto-Server (for PrestoDB)

presto-node

Modifiez les valeurs dans le fichier node.properties de Presto.

Not available.

presto-connector-blackhole

Modifiez les valeurs dans le fichier blackhole.properties de Presto.

Not available.

presto-connector-cassandra

Modifiez les valeurs dans le fichier cassandra.properties de Presto.

Not available.

presto-connector-hive

Modifiez les valeurs dans le fichier hive.properties de Presto.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Modifiez les valeurs dans le fichier jmx.properties de Presto.

Not available.

presto-connector-kafka

Modifiez les valeurs dans le fichier kafka.properties de Presto.

Not available.

presto-connector-localfile

Modifiez les valeurs dans le fichier localfile.properties de Presto.

Not available.

presto-connector-memory

Modifiez les valeurs dans le fichier memory.properties de Presto.

Not available.

presto-connector-mongodb

Modifiez les valeurs dans le fichier mongodb.properties de Presto.

Not available.

presto-connector-mysql

Modifiez les valeurs dans le fichier mysql.properties de Presto.

Not available.

presto-connector-postgresql

Modifiez les valeurs dans le fichier postgresql.properties de Presto.

Not available.

presto-connector-raptor

Modifiez les valeurs dans le fichier raptor.properties de Presto.

Not available.

presto-connector-redis

Modifiez les valeurs dans le fichier redis.properties de Presto.

Not available.

presto-connector-redshift

Modifiez les valeurs dans le fichier redshift.properties de Presto.

Not available.

presto-connector-tpch

Modifiez les valeurs dans le fichier tpch.properties de Presto.

Not available.

presto-connector-tpcds

Modifiez les valeurs dans le fichier tpcds.properties de Presto.

Not available.

prestosql-log

Modifiez les valeurs dans le fichier log.properties de Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-config

Modifiez les valeurs dans le fichier config.properties de Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-password-authenticator

Modifiez les valeurs dans le fichier password-authenticator.properties de Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-env

Modifiez les valeurs dans le fichier presto-env.sh de Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-node

Modifiez les valeurs dans le fichier SQL node.properties de Presto.

Not available.

prestosql-connector-blackhole

Modifiez les valeurs dans le fichier SQL blackhole.properties de Presto.

Not available.

prestosql-connector-cassandra

Modifiez les valeurs dans le fichier SQL cassandra.properties de Presto.

Not available.

prestosql-connector-hive

Modifiez les valeurs dans le fichier SQL hive.properties de Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-connector-jmx

Modifiez les valeurs dans le fichier SQL jmx.properties de Presto.

Not available.

prestosql-connector-kafka

Modifiez les valeurs dans le fichier SQL kafka.properties de Presto.

Not available.

prestosql-connector-localfile

Modifiez les valeurs dans le fichier SQL localfile.properties de Presto.

Not available.

prestosql-connector-memory

Modifiez les valeurs dans le fichier SQL memory.properties de Presto.

Not available.

prestosql-connector-mongodb

Modifiez les valeurs dans le fichier SQL mongodb.properties de Presto.

Not available.

prestosql-connector-mysql

Modifiez les valeurs dans le fichier SQL mysql.properties de Presto.

Not available.

prestosql-connector-postgresql

Modifiez les valeurs dans le fichier SQL postgresql.properties de Presto.

Not available.

prestosql-connector-raptor

Modifiez les valeurs dans le fichier SQL raptor.properties de Presto.

Not available.

prestosql-connector-redis

Modifiez les valeurs dans le fichier SQL redis.properties de Presto.

Not available.

prestosql-connector-redshift

Modifiez les valeurs dans le fichier SQL redshift.properties de Presto.

Not available.

prestosql-connector-tpch

Modifiez les valeurs dans le fichier SQL tpch.properties de Presto.

Not available.

prestosql-connector-tpcds

Modifiez les valeurs dans le fichier SQL tpcds.properties de Presto.

Not available.

ranger-kms-dbks-site

Modifiez les valeurs dans le fichier dbks-site.xml de RangerKMS.

Restarts Ranger KMS Server.

ranger-kms-site

Modifiez les valeurs dans le fichier ranger-kms-site .xml de RangerKMS.

Restarts Ranger KMS Server.

ranger-kms-env

Modifiez les valeurs dans l'KMSenvironnement Ranger.

Restarts Ranger KMS Server.

ranger-kms-log4j

Modifiez les valeurs dans le fichier kms-log4j.properties de Ranger. KMS

Not available.

ranger-kms-db-ca

Modifiez les valeurs du fichier CA sur S3 pour Ma SQL SSL connexion avec RangerKMS.

Not available.

spark

Paramètres EMR sélectionnés par Amazon pour Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Modifiez les valeurs dans le fichier spark-defaults.conf de Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Modifiez les valeurs dans l'environnement Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Modifiez les valeurs dans le fichier hive-site.xml de Spark

Not available.

spark-log4j

Modifiez les valeurs dans le fichier log4j.properties de Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Modifiez les valeurs dans le fichier metrics.properties de Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Modifiez les valeurs d'environnement Sqoop.

Not available.

sqoop-oraoop-site

Modifiez les valeurs dans le fichier oraoop-site.xml de OraOop Sqoop.

Not available.

sqoop-site

Modifiez les valeurs dans le fichier sqoop-site.xml de Sqoop.

Not available.

tez-site

Modifiez les valeurs dans le fichier tez-site.xml de Tez.

Restart Oozie.

yarn-env

Modifiez les valeurs dans l'YARNenvironnement.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Modifiez les valeurs dans YARN le fichier yarn-site.xml.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Modifiez les valeurs dans l'environnement Zeppelin.

Restarts Zeppelin.

zookeeper-config

Modifiez les valeurs dans ZooKeeper le fichier zoo.cfg.

Restarts Zookeeper server.

zookeeper-log4j

Modifiez les valeurs dans le ZooKeeper fichier log4j.properties.

Restarts Zookeeper server.