Amazon EMR, versión 5.30.0 - Amazon EMR

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Amazon EMR, versión 5.30.0

Versiones de las aplicaciones de la versión 5.30.0

Esta versión admite las siguientes aplicaciones: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin y ZooKeeper.

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:

Información sobre la versión de la aplicación
emr-5.30.0 emr-5.29.0 emr-5.28.1 emr-5.28.0
AWS SDK for Java 1.11.7591.11.6821.11.6591.11.659
Python 2.7, 3.72.7, 3.62.7, 3.62.7, 3.6
Scala 2.11.122.11.122.11.122.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.10.01.9.11.9.01.9.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.101.4.101.4.10
HCatalog2.3.62.3.62.3.62.3.6
Hadoop2.8.52.8.52.8.52.8.5
Hive2.3.62.3.62.3.62.3.6
Hudi0.5.2-incubating0.5.0-incubating0.5.0-incubating0.5.0-incubating
Hue4.6.04.4.04.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.0.01.0.01.0.0
Livy0.7.00.6.00.6.00.6.0
MXNet1.5.11.5.11.5.11.5.1
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.1.05.1.05.1.0
Phoenix4.14.34.14.34.14.34.14.3
Pig0.17.00.17.00.17.00.17.0
Presto0.2320.2270.2270.227
Spark2.4.52.4.42.4.42.4.4
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.14.01.14.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL) - - - -
Zeppelin0.8.20.8.20.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

Notas de la versión 5.30.0

Las siguientes notas de la versión incluyen información sobre la versión 5.30.0 de Amazon EMR. Los cambios son respecto a la versión 5.29.0.

Fecha de lanzamiento inicial: 13 de mayo de 2020

Fecha de la última actualización: 25 de junio de 2020

Actualizaciones
  • Actualizado a la versión AWS SDK for Java 1.11.759

  • Se actualizó el SDK de Amazon SageMaker Spark a la versión 1.3.0

  • Se actualizó el servidor de registros de EMR a la versión 1.6.0

  • Se ha actualizado Flink a la versión 1.10.0

  • Se actualizó Ganglia a la versión 3.7.2

  • Se actualizó HBase a la versión 1.4.13

  • Se actualizó Hudi a la versión 0.5.2-incubating

  • Se actualizó Hue a la versión 4.6.0

  • Se actualizó JupyterHub a la versión 1.1.0

  • Se actualizó Livy a la versión 0.7.0-incubating

  • Se actualizó Oozie a la versión 5.2.0

  • Se actualizó Presto a la versión 0.232

  • Se actualizó Spark a la versión 2.4.5

  • Conectores y controladores actualizados: Amazon Glue Connector 1.12.0; Amazon Kinesis Connector 3.5.0; EMR DynamoDB Connector 4.14.0

Nuevas características
  • Cuadernos de EMR: cuando se utiliza con clústeres de EMR creados con la versión 5.30.0, los kernels de cuadernos de EMR se ejecutan en un clúster. Esto mejora el rendimiento del bloc de notas y le permite instalar y personalizar kernels. También puede instalar bibliotecas de Python en el nodo principal del clúster. Para obtener más información, consulte Instalación y uso de kernels y bibliotecas en la Guía de administración de EMR.

  • Escalado administrado: con la versión 5.30.0 y posteriores de Amazon EMR, puede habilitar el escalado administrado de EMR para aumentar o disminuir automáticamente el número de instancias o unidades del clúster en función de la carga de trabajo. Amazon EMR evalúa continuamente las métricas del clúster para tomar decisiones de escalado que optimicen los clústeres en cuanto al costo y la velocidad. Para más información, consulte Recursos de escalado de clúster en la Guía de administración de Amazon EMR.

  • Cifrar los archivos de registro almacenados en Amazon S3: con Amazon EMR versión 5.30.0 y versiones posteriores, puede cifrar los archivos de registro almacenados en Amazon S3 con una clave gestionada por el cliente. AWS KMS Para más información, consulte Consultar archivos de registros almacenados en Amazon S3 en la Guía de administración de Amazon EMR.

  • Compatibilidad con Amazon Linux 2: en la versión 5.30.0 y posteriores de EMR, EMR utiliza el sistema operativo Amazon Linux 2. Las nuevas AMI (imágenes de máquina de Amazon) personalizadas deben basarse en la AMI de Amazon Linux 2. Para obtener más información, consulte Uso de una AMI personalizada.

  • Escalado automático estable de Presto: los clústeres de EMR que utilizan la versión 5.30.0 se pueden configurar con un periodo de espera de escalado automático que da tiempo a las tareas de Presto para terminar de ejecutarse antes de que su nodo se retire. Para obtener más información, consulte Uso del escalado automático de Presto con la retirada estable.

  • Creación de instancias de flota con una nueva opción de estrategia de asignación: hay una nueva opción de estrategia de asignación disponible en la versión 5.12.1 y posteriores de EMR. Ofrece un aprovisionamiento de clústeres más rápido, una asignación de spot más precisa y menos interrupciones de las instancias de spot. Se requieren actualizaciones de los roles de servicio de EMR no predeterminados. Consulte Configurar flotas de instancias.

  • Comandos sudo systemctl stop y sudo systemctl start: en la versión 5.30.0 y posteriores de EMR, que utilizan el sistema operativo Amazon Linux 2, EMR utiliza los comandos sudo systemctl stop y sudo systemctl start para reiniciar los servicios. Para más información, consulte ¿Cómo reinicio un servicio en Amazon EMR?.

Cambios, mejoras y problemas resueltos
  • La versión 5.30.0 de EMR no instala Ganglia de forma predeterminada. Puede seleccionar explícitamente Ganglia para instalar cuando cree un clúster.

  • Optimizaciones de rendimiento de Spark.

  • Optimizaciones de rendimiento de Presto.

  • Python 3 es la opción predeterminada para la versión 5.30.0 y posteriores de Amazon EMR.

  • El grupo de seguridad administrado predeterminado para el acceso al servicio en subredes privadas se ha actualizado con nuevas reglas. Si utiliza un grupo de seguridad personalizado para el acceso al servicio, debe incluir las mismas reglas que el grupo de seguridad administrado predeterminado. Para más información, consulte Grupo de seguridad administrado por Amazon EMR para el acceso al servicio (Subredes privadas). Si utiliza un rol de servicio personalizado para Amazon EMR, debe conceder permiso a ec2:describeSecurityGroups para que EMR pueda validar si los grupos de seguridad se crean correctamente. Si utiliza EMR_DefaultRole, este permiso ya está incluido en la política administrada predeterminada.

Problemas conocidos
  • Reducir el límite de “Máximo de archivos abiertos” en las versiones de AL2 anteriores [corregido en versiones más recientes]. Las versiones de Amazon EMR emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 y emr-6.2.0 se basan en versiones anteriores de Amazon Linux 2 (AL2), que tienen una configuración de ulimit inferior para “Máximo de archivos abiertos” cuando los clústeres de Amazon EMR se crean con la AMI predeterminada. Las versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores de Amazon EMR ahora incluyen una corrección permanente con una configuración más alta de “Máximo de archivos abiertos”. Las versiones con el límite inferior de archivos abiertos provocan el error “Demasiados archivos abiertos” al enviar el trabajo de Spark. En las versiones afectadas, la AMI predeterminada de Amazon EMR tiene una configuración de ulimit predeterminada de 4096 para “Máximo de archivos abiertos”, una cantidad inferior al límite de 65 536 archivos de la AMI de Amazon Linux 2 más reciente. La configuración de ulimit inferior para “Máximo de archivos abiertos” provoca un fallo en el trabajo de Spark cuando el controlador y el ejecutor de Spark intentan abrir más de 4096 archivos. Para solucionar el problema, Amazon EMR tiene un script de acciones de arranque (BA) que ajusta la configuración de ulimit al crear el clúster.

    Si utiliza una versión anterior de Amazon EMR que no tiene una corrección permanente para este problema, la siguiente solución alternativa le permite establecer explícitamente el ulimit del controlador de instancias en un máximo de 65 536 archivos.

    Establecimiento explícito de un ulimit desde la línea de comandos
    1. Edite /etc/systemd/system/instance-controller.service para agregar los siguientes parámetros a la sección de servicio.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Reinicie InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Establecimiento de un ulimit mediante una acción de arranque (BA)

    También puede usar un script de acciones de arranque (BA) para configurar el ulimit del controlador de instancias en 65 536 archivos al crear el clúster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Escalado administrado

    Las operaciones de escalado administrado en los clústeres 5.30.0 y 5.30.1 sin Presto instalado pueden provocar errores en las aplicaciones o provocar que un grupo de instancias o una flota de instancias uniformes permanezcan en estado ARRESTED, especialmente cuando una operación de reducción vertical va seguida inmediatamente de una operación de escalado vertical.

    Como solución alternativa, elija Presto como aplicación para instalar cuando cree un clúster con las versiones 5.30.0 y 5.30.1 de Amazon EMR, incluso si su trabajo no requiere Presto.

  • Problema conocido en clústeres con varios nodos principales y autenticación de Kerberos

    Si ejecuta clústeres con varios nodos principales y autenticación de Kerberos en las versiones 5.20.0 y posteriores de Amazon EMR, es posible que tenga problemas con las operaciones del clúster, como la reducción vertical o el envío escalonado, después de que el clúster se haya estado ejecutando durante algún tiempo. El periodo de tiempo depende del periodo de validez del ticket de Kerberos que se haya definido. El problema de la reducción vertical afecta tanto a las solicitudes de reducción vertical automática como a las solicitudes de reducción vertical explícita que haya enviado. Las operaciones adicionales del clúster también pueden verse afectadas.

    Solución:

    • SSH como usuario de hadoop con el nodo principal líder del clúster de EMR con varios nodos principales.

    • Ejecute el siguiente comando para renovar el ticket de Kerberos para el usuario de hadoop.

      kinit -kt <keytab_file> <principal>

      Normalmente, el archivo keytab se encuentra en /etc/hadoop.keytab y la entidad principal tiene la forma de hadoop/<hostname>@<REALM>.

    nota

    Esta solución alternativa estará en vigor durante el periodo de validez del ticket de Kerberos. Esta duración es de 10 horas de forma predeterminada, pero se puede configurar con los ajustes de Kerberos. Debe volver a ejecutar el comando anterior una vez que venza el ticket de Kerberos.

  • El motor de base de datos predeterminado para Hue 4.6.0 es SQLite, lo que provoca problemas al intentar utilizar Hue con una base de datos externa. Para solucionar este problema, defina engine en su clasificación de configuración hue-ini como mysql. Este problema se ha corregido en la versión 5.30.1 de Amazon EMR.

  • Cuando utiliza Spark con el formato de ubicación de particiones de Hive para leer datos en Amazon S3 y ejecuta Spark en las versiones 5.30.0 a 5.36.0 y 6.2.0 a 6.9.0 de Amazon EMR, es posible que se produzca un problema que impida que el clúster lea los datos correctamente. Esto puede ocurrir si las particiones tienen todas las características siguientes:

    • Se analizan dos o más particiones de la misma tabla.

    • Al menos una ruta de directorio de particiones es un prefijo de al menos otra ruta de directorio de particiones; por ejemplo, s3://bucket/table/p=a es un prefijo de s3://bucket/table/p=a b.

    • El primer carácter que sigue al prefijo del otro directorio de particiones tiene un valor UTF-8 inferior al carácter / (U+002F). Por ejemplo, el carácter de espacio (U+0020) que aparece entre a y b en s3://bucket/table/p=a b entra en esta categoría. Tenga en cuenta que hay otros 14 caracteres que no son de control: !"#$%&‘()*+,-. Para más información, consulte UTF-8 encoding table and Unicode characters.

    Como solución alternativa a este problema, defina la configuración spark.sql.sources.fastS3PartitionDiscovery.enabled como false en la clasificación spark-defaults.

Versiones de los componentes de la versión 5.30.0

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de Big Data. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con emr o aws. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato CommunityVersion-amzn-EmrVersion. La EmrVersion empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado myapp-component con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será 2.2-amzn-2.

Componente Versión Descripción
aws-sagemaker-spark-sdk1.3.0SDK de Amazon SageMaker Spark
emr-ddb4.14.0Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop.
emr-goodies2.13.0Bibliotecas especialmente prácticas para el ecosistema de Hadoop.
emr-kinesis3.5.0Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop.
emr-notebook-env1.0.0Entorno Conda para emr notebook
emr-s3-dist-cp2.14.0Aplicación de copia distribuida optimizada para Amazon S3.
emr-s3-select1.5.0Conector S3Select de EMR
emrfs2.40.0Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop.
flink-client1.10.0Scripts y aplicaciones de cliente de línea de comando de Apache Flink.
ganglia-monitor3.7.2Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia.
ganglia-metadata-collector3.7.2Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia.
ganglia-web3.7.1Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia.
hadoop-client2.8.5-amzn-6Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode2.8.5-amzn-6Servicio de nivel de nodos de HDFS para el almacenamiento de bloques.
hadoop-hdfs-library2.8.5-amzn-6Biblioteca y cliente de línea de comandos HDFS
hadoop-hdfs-namenode2.8.5-amzn-6Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones.
hadoop-hdfs-journalnode2.8.5-amzn-6Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad.
hadoop-httpfs-server2.8.5-amzn-6Punto de enlace HTTP para operaciones HDFS.
hadoop-kms-server2.8.5-amzn-6Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider
hadoop-mapred2.8.5-amzn-6MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce
hadoop-yarn-nodemanager2.8.5-amzn-6Servicio de YARN para la administración de contenedores en un nodo individual.
hadoop-yarn-resourcemanager2.8.5-amzn-6Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas.
hadoop-yarn-timeline-server2.8.5-amzn-6Servicio para recuperar información actual e histórica para aplicaciones de YARN.
hbase-hmaster1.4.13Servicio para un clúster de HBase responsable de la coordinación de regiones y ejecución de comandos administrativos.
hbase-region-server1.4.13Servicio que atiende a una o varias regiones de HBase.
hbase-client1.4.13Cliente de línea de comando de HBase.
hbase-rest-server1.4.13Servicio que proporciona un punto de enlace HTTP RESTful para HBase.
hbase-thrift-server1.4.13Service que proporciona un punto de enlace de Thrift a HBase.
hcatalog-client2.3.6-amzn-2El cliente de línea de comando "hcat" para manipular hcatalog-server.
hcatalog-server2.3.6-amzn-2Service que proporciona a HCatalog, una tabla y capa de administración de almacenamiento para aplicaciones distribuidas.
hcatalog-webhcat-server2.3.6-amzn-2Punto de enlace HTTP que proporciona una interfaz REST a HCatalog.
hive-client2.3.6-amzn-2Cliente de línea de comando de Hive.
hive-hbase2.3.6-amzn-2Hive-hbase client.
hive-metastore-server2.3.6-amzn-2Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop.
hive-server22.3.6-amzn-2Servicio para aceptar consultas de Hive como solicitudes web.
hudi0.5.2-incubatingMarco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia.
hudi-presto0.5.2-incubatingBiblioteca de paquetes para ejecutar Presto con Hudi.
hue-server4.6.0Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop
jupyterhub1.1.0Servidor multiusuario para blocs de notas Jupyter
livy-server0.7.0-incubatingInterfaz de REST para interactuar con Apache Spark
nginx1.12.1nginx [engine x] es un servidor HTTP y proxy inverso
mahout-client0.13.0Biblioteca para machine learning.
mxnet1.5.1Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo.
mariadb-server5.5.64Servidor de bases de datos MySQL.
nvidia-cuda9.2.88Controladores Nvidia y conjunto de herramientas Cuda
oozie-client5.2.0Cliente de línea de comando de Oozie.
oozie-server5.2.0Servicio para aceptar solicitudes de flujo de trabajo de Oozie.
opencv3.4.0Biblioteca de visión artificial de código abierto.
phoenix-library4.14.3-HBase-1.4Las bibliotecas de Phoenix para servidor y cliente
phoenix-query-server4.14.3-HBase-1.4Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica
presto-coordinator0.232Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers.
presto-worker0.232Service para ejecutar partes de una consulta.
presto-client0.232Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado.
pig-client0.17.0Cliente de línea de comando de Pig.
r3.4.3Proyecto R para análisis estadístico
ranger-kms-server1.2.0Sistema de administración de claves Apache Ranger
spark-client2.4.5-amzn-0Clientes de línea de comando de Spark.
spark-history-server2.4.5-amzn-0IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada.
spark-on-yarn2.4.5-amzn-0Motor de ejecución en memoria para YARN.
spark-yarn-slave2.4.5-amzn-0Bibliotecas de Apache Spark necesarias para esclavos de YARN.
sqoop-client1.4.7Cliente de línea de comando de Apache Sqoop.
tensorflow1.14.0TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento.
tez-on-yarn0.9.2La aplicación YARN de tez y bibliotecas.
webserver2.4.25+Servidor HTTP de Apache.
zeppelin-server0.8.2Bloc de notas basado en web que permite el análisis de datos interactivo.
zookeeper-server3.4.14Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo.
zookeeper-client3.4.14ZooKeeper cliente de línea de comandos.

Clasificaciones de configuración de la versión 5.30.0

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, hive-site.xml. Para obtener más información, consulte Configuración de aplicaciones.

Clasificaciones de emr-5.30.0
Clasificaciones Descripción

capacity-scheduler

Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop.

container-log4j

Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN.

core-site

Cambiar los valores en el archivo core-site.xml de Hadoop.

emrfs-site

Cambiar la configuración de EMRFS.

flink-conf

Cambiar la configuración de flink-conf.yaml.

flink-log4j

Cambiar la configuración de log4j.properties de Flink.

flink-log4j-yarn-session

Cambie la configuración de Flink log4 j-yarn-session .properties.

flink-log4j-cli

Cambiar la configuración de log4j-cli.properties de Flink.

hadoop-env

Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop.

hadoop-log4j

Cambiar los valores en el archivo log4j.properties de Hadoop.

hadoop-ssl-server

Cambiar la configuración del servidor ssl de Hadoop

hadoop-ssl-client

Cambiar la configuración del cliente ssl de Hadoop

hbase

Configuración de Amazon EMR mantenida para Apache HBase.

hbase-env

Cambiar los valores en el entorno de HBase.

hbase-log4j

Cambiar los valores en el archivo hbase-log4j.properties de HBase.

hbase-metrics

Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de HBase.

hbase-policy

Cambiar los valores en el archivo hbase-policy.xml de HBase.

hbase-site

Cambiar los valores en el archivo hbase-site.xml de HBase.

hdfs-encryption-zones

Configurar zonas de cifrado de HDFS.

hdfs-site

Cambiar los valores en hdfs-site.xml de HDFS.

hcatalog-env

Cambiar los valores en el entorno de HCatalog.

hcatalog-server-jndi

Cambiar los valores en jndi.properties de HCatalog.

hcatalog-server-proto-hive-site

Cambie los valores en el archivo.xml de HCatalog. proto-hive-site

hcatalog-webhcat-env

Cambiar los valores en el entorno de HCatalog WebHCat.

hcatalog-webhcat-log4j2

Cambiar los valores en log4j2.properties de HCatalog WebHCat.

hcatalog-webhcat-site

Cambiar los valores en el archivo webhcat-site.xml de HCatalog WebHCat.

hive-beeline-log4j2

Cambiar los valores en el archivo beeline-log4j2.properties de Hive.

hive-parquet-logging

Cambiar los valores en el archivo parquet-logging.properties de Hive.

hive-env

Cambiar los valores en el entorno de Hive.

hive-exec-log4j2

Cambie los valores en el archivo 4j2.properties de Hive. hive-exec-log

hive-llap-daemon-log4j2

Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log

hive-log4j2

Cambiar los valores en el archivo hive-log4j2.properties de Hive.

hive-site

Cambiar los valores en el archivo hive-site.xml de Hive.

hiveserver2-site

Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2.

hue-ini

Cambiar los valores en el archivo ini de Hue

httpfs-env

Cambiar los valores en el entorno de HTTPFS.

httpfs-site

Cambiar los valores en el archivo httpfs-site.xml de Hadoop.

hadoop-kms-acls

Cambiar los valores en el archivo kms-acls.xml de Hadoop.

hadoop-kms-env

Cambiar los valores en el entorno de Hadoop KMS.

hadoop-kms-log4j

Cambiar los valores en el archivo kms-log4j.properties de Hadoop.

hadoop-kms-site

Cambiar los valores en el archivo kms-site.xml de Hadoop.

hudi-env

Cambiar los valores en el entorno de Hudi.

jupyter-notebook-conf

Cambiar los valores en el archivo jupyter_notebook_config.py de Jupyter Notebook.

jupyter-hub-conf

Cambie los valores en JupyterHubs el archivo jupyterhub_config.py.

jupyter-s3-conf

Configurar la persistencia en S3 del bloc de notas de Jupyter.

jupyter-sparkmagic-conf

Cambiar los valores en el archivo config.json de Sparkmagic.

livy-conf

Cambiar los valores en el archivo livy.conf de Livy.

livy-env

Cambiar los valores en el entorno de Livy.

livy-log4j

Cambiar la configuración de log4j.properties de Livy.

mapred-env

Cambie los valores en el entorno de la MapReduce aplicación.

mapred-site

Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación.

oozie-env

Cambiar los valores en el entorno de Oozie.

oozie-log4j

Cambiar los valores en el archivo oozie-log4j.properties de Oozie.

oozie-site

Cambiar los valores en el archivo oozie-site.xml de Oozie.

phoenix-hbase-metrics

Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix.

phoenix-hbase-site

Cambiar los valores en el archivo hbase-site.xml de Phoenix.

phoenix-log4j

Cambiar los valores en el archivo log4j.properties de Phoenix.

phoenix-metrics

Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix.

pig-env

Cambiar los valores en el entorno de Pig.

pig-properties

Cambiar los valores en el archivo pig.properties de Pig.

pig-log4j

Cambiar los valores en el archivo log4j.properties de Pig.

presto-log

Cambiar los valores en el archivo log.properties de Presto.

presto-config

Cambiar los valores en el archivo config.properties de Presto.

presto-password-authenticator

Cambiar los valores en el archivo password-authenticator.properties de Presto.

presto-env

Cambiar valores en el archivo presto-env.sh de Presto.

presto-node

Cambiar valores en el archivo node.properties de Presto.

presto-connector-blackhole

Cambiar los valores en el archivo blackhole.properties de Presto.

presto-connector-cassandra

Cambiar los valores en el archivo cassandra.properties de Presto.

presto-connector-hive

Cambiar los valores en el archivo hive.properties de Presto.

presto-connector-jmx

Cambiar los valores en el archivo jmx.properties de Presto.

presto-connector-kafka

Cambiar los valores en el archivo kafka.properties de Presto.

presto-connector-localfile

Cambiar los valores en el archivo localfile.properties de Presto.

presto-connector-memory

Cambiar los valores del archivo memory.properties de Presto.

presto-connector-mongodb

Cambiar los valores en el archivo mongodb.properties de Presto.

presto-connector-mysql

Cambiar los valores en el archivo mysql.properties de Presto.

presto-connector-postgresql

Cambiar los valores en el archivo postgresql.properties de Presto.

presto-connector-raptor

Cambiar los valores en el archivo raptor.properties de Presto.

presto-connector-redis

Cambiar los valores en el archivo redis.properties de Presto.

presto-connector-redshift

Cambiar los valores en el archivo redshift.properties de Presto.

presto-connector-tpch

Cambiar los valores en el archivo tpch.properties de Presto.

presto-connector-tpcds

Cambiar los valores del archivo tpcds.properties de Presto.

ranger-kms-dbks-site

Cambie los valores del archivo dbks-site.xml de Ranger KMS.

ranger-kms-site

Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS.

ranger-kms-env

Cambie los valores del entorno Ranger KMS.

ranger-kms-log4j

Cambie los valores del archivo kms-log4j.properties de Ranger KMS.

ranger-kms-db-ca

Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS.

recordserver-env

Cambie los valores en el entorno EMR. RecordServer

recordserver-conf

Cambie los valores en el archivo erver.properties RecordServer de EMR.

recordserver-log4j

Cambie los valores en el archivo log4j.properties RecordServer de EMR.

spark

Configuración de Amazon EMR mantenida para Apache Spark.

spark-defaults

Cambiar los valores en el archivo spark-defaults.conf de Spark.

spark-env

Cambiar los valores en el entorno de Spark.

spark-hive-site

Cambiar los valores en el archivo hive-site.xml de Spark.

spark-log4j

Cambiar los valores en el archivo log4j.properties de Spark.

spark-metrics

Cambiar los valores en el archivo metrics.properties de Spark.

sqoop-env

Cambiar los valores en el entorno de Sqoop.

sqoop-oraoop-site

Cambie los valores en el archivo oraoop-site.xml de Sqoop OraOop.

sqoop-site

Cambiar los valores en el archivo sqoop-site.xml de Sqoop.

tez-site

Cambiar los valores en el archivo tez-site.xml de Tez.

yarn-env

Cambiar los valores en el entorno de YARN.

yarn-site

Cambiar los valores en el archivo yarn-site.xml de YARN.

zeppelin-env

Cambiar los valores en el entorno de Zeppelin.

zookeeper-config

Cambie los valores en el ZooKeeper archivo zoo.cfg.

zookeeper-log4j

Cambie los valores en el ZooKeeper archivo log4j.properties.