Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Amazon EMR versión 6.0.0
Versiones de las aplicaciones de la versión 6.0.0
Esta versión admite las siguientes aplicaciones: Ganglia
La siguiente tabla muestra las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres EMR versiones anteriores de Amazon (cuando proceda).
Para obtener un historial completo de las versiones de las aplicaciones de cada versión de AmazonEMR, consulta los siguientes temas:
Información sobre la versión de la aplicación | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AWS SDKpara Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AmazonCloudWatchAgent | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Delta | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Flink | 1.11.0 | 1.11.0 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Iceberg | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterEnterpriseGateway | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Livy | 0.7.0 | 0.7.0 | 0.6.0 | 0.6.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mahout | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pig | 0.17.0 | 0.17.0 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto | 0.232 | 0.232 | 0.230 | 0.230 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Spark | 3.0.0 | 3.0.0 | 2.4.4 | 2.4.4 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop | 1.4.7 | 1.4.7 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Trino (Presto) SQL | 338 | 338 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
Notas de la versión 6.0.0
Las siguientes notas de la versión incluyen información sobre la EMR versión 6.0.0 de Amazon.
Fecha de lanzamiento inicial: 10 de marzo de 2020
Aplicaciones compatibles
AWS SDK for Java versión 1.11.711
Versión de Ganglia 3.7.2
Versión de Hadoop 3.2.1
HBaseversión 2.2.3
HCatalogversión 3.1.2
Versión de Hive 3.1.2
Versión de Hudi 0.5.0-incubating
Versión de Hue 4.4.0
JupyterHub versión 1.0.0
Versión de Livy 0.6.0
MXNetversión 1.5.1
Versión de Oozie 5.1.0
Versión de Phoenix 5.0.0
Versión de Presto 0.230
Versión de Spark 2.4.4
TensorFlow versión 1.14.0
Zeppelin versión 0.9.0- SNAPSHOT
Versión de Zookeeper 3.4.14
Conectores y controladores: DynamoDB Connector 4.14.0
nota
Flink, Sqoop, Pig y Mahout no están disponibles en la versión 6.0.0 de Amazon. EMR
Nuevas características
YARNDocker Runtime Support: YARN las aplicaciones, como los trabajos de Spark, ahora se pueden ejecutar en el contexto de un contenedor Docker. Esto te permite definir fácilmente las dependencias en una imagen de Docker sin necesidad de instalar bibliotecas personalizadas en tu clúster de AmazonEMR. Para obtener más información, consulte Configurar la integración de Docker y ejecutar aplicaciones de Spark con Docker mediante Amazon EMR 6.0.0.
-
Hive LLAP Support: Hive ahora admite el modo de LLAP ejecución para mejorar el rendimiento de las consultas. Para obtener más información, consulte Uso de Hive. LLAP
Cambios, mejoras y problemas resueltos
-
Esta es una versión para solucionar problemas con Amazon EMR Scaling cuando no logra escalar correctamente un clúster hacia arriba o hacia abajo o provoca errores en las aplicaciones.
Se solucionó un problema por el que las solicitudes de escalado de un clúster grande y muy utilizado fallaban cuando los daemons del EMR clúster de Amazon ejecutaban actividades de comprobación de estado, como recopilar el estado y HDFS el estado del YARN nodo. Esto se debía a que los daemons del clúster no podían comunicar los datos del estado de salud de un nodo a los componentes internos de Amazon. EMR
Se han mejorado los daemons EMR del clúster para realizar un seguimiento correcto de los estados de los nodos cuando se reutilizan las direcciones IP, a fin de mejorar la fiabilidad durante las operaciones de escalado.
SPARK-29683
. Se ha corregido un error que provocaba que se produjeran errores en los trabajos durante la reducción vertical del clúster, ya que Spark daba por sentado que todos los nodos disponibles estaban en la lista de denegados. YARN-9011.
Se ha corregido un error que provocaba que se produjeran errores en los trabajos debido a una condición de carrera durante el YARN desmantelamiento, cuando el clúster intentaba ampliarse o reducirse. Se solucionó el problema que provocaba errores en los pasos o tareas durante el escalado del clúster al garantizar que los estados de los nodos fueran siempre coherentes entre los daemons del EMR clúster de Amazon y/. YARN HDFS
Se ha corregido un problema que provocaba que las operaciones de clúster, como la reducción de escala y el envío por pasos, fallaran en EMR los clústeres de Amazon habilitados con la autenticación Kerberos. Esto se debió a que el daemon EMR integrado en el clúster de Amazon no renovó el ticket de Kerberos, que es necesario para comunicarse de forma segura conHDFS/que se YARN ejecuta en el nodo principal.
Las EMR versiones más recientes de Amazon solucionan el problema con un límite de «máximo de archivos abiertos» inferior al anterior AL2 en AmazonEMR. Las EMR versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores ahora incluyen una corrección permanente con una configuración más alta de «Máximo de archivos abiertos».
Amazon Linux
Amazon Linux 2 es el sistema operativo de la serie de versiones EMR 6.x.
systemd
se usa para la administración de servicios en lugar deupstart
usar inAmazon Linux 1.
Kit de desarrollo de Java (JDK)
Corretto JDK 8 es el predeterminado JDK para la serie de versiones EMR 6.x.
Scala
Scala 2.12 se utiliza con Apache Spark y Apache Livy.
Python 3
Python 3 es ahora la versión predeterminada de Python enEMR.
YARNetiquetas de nodos
A partir de la serie de versiones EMR 6.x de Amazon, la función de etiquetas de YARN nodos está deshabilitada de forma predeterminada. De forma predeterminada, los procesos maestros de la aplicación se pueden ejecutar tanto en nodos principales como en nodos de tareas. Puede activar la función de etiquetas de YARN nodos configurando las siguientes propiedades:
yarn.node-labels.enabled
yyarn.node-labels.am.default-node-label-expression
. Para más información, consulte Comprensión de los nodos principales, básicos y de tareas.
Problemas conocidos
-
Reducir el límite de «máximo de archivos abiertos» en las versiones anteriores AL2 [corregido en las versiones más recientes]. EMRLas versiones de Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 y emr-6.2.0 se basan en versiones anteriores de Linux ofAmazon 2 (), que tienen un valor de límite inferior para el «Máximo número de archivos abiertos» cuando los clústeres de Amazon se crean con la AL2 configuración predeterminada. EMR AMI EMRLas versiones 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 y posteriores incluyen una corrección permanente con una configuración más alta de «Número máximo de archivos abiertos». Las versiones con el límite inferior de archivos abiertos provocan el error “Demasiados archivos abiertos” al enviar el trabajo de Spark. En las versiones afectadas, la configuración EMR predeterminada de Amazon AMI tiene una configuración de límite ulimit predeterminada de 4096 para el «Máximo de archivos abiertos», que es inferior al límite de 65536 archivos de Linux 2. latestAmazon AMI La configuración de ulimit inferior para “Máximo de archivos abiertos” provoca un fallo en el trabajo de Spark cuando el controlador y el ejecutor de Spark intentan abrir más de 4096 archivos. Para solucionar el problema, Amazon EMR tiene un script de acciones de arranque (BA) que ajusta la configuración ulimit al crear el clúster.
Si utilizas una EMR versión anterior de Amazon que no tiene una solución permanente para este problema, la siguiente solución alternativa te permite establecer de forma explícita el límite ulimit del controlador de instancias en un máximo de 65536 archivos.
Establecimiento explícito de un ulimit desde la línea de comandos
Edite
/etc/systemd/system/instance-controller.service
para agregar los siguientes parámetros a la sección de servicio.LimitNOFILE=65536
LimitNPROC=65536
Reinicie InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Establecimiento de un ulimit mediante una acción de arranque (BA)
También puede usar un script de acciones de arranque (BA) para configurar el ulimit del controlador de instancias en 65 536 archivos al crear el clúster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
El shell interactivo de Spark, que incluye PySpark SparkR y spark-shell, no admite el uso de Docker con bibliotecas adicionales.
-
Para usar Python 3 con la EMR versión 6.0.0 de Amazon, debe añadir
PATH
ayarn.nodemanager.env-whitelist
. -
Las funciones Live Long y Process (LLAP) no son compatibles cuando se utiliza el AWS Glue Data Catalog como metaalmacén de Hive.
-
Al utilizar Amazon EMR 6.0.0 con la integración de Spark y Docker, debe configurar las instancias del clúster con el mismo tipo de instancia y la misma cantidad de EBS volúmenes para evitar errores al enviar un trabajo de Spark con Docker Runtime.
-
En Amazon EMR 6.0.0, HBase el modo de almacenamiento en Amazon S3 se ve afectado por el problema HBASE-24286
. HBaseel maestro no se puede inicializar cuando se crea el clúster con los datos de S3 existentes. -
Problema conocido en clústeres con varios nodos principales y autenticación de Kerberos
Si ejecuta clústeres con varios nodos principales y autenticación Kerberos en las EMR versiones 5.20.0 y posteriores de Amazon, es posible que tenga problemas con las operaciones del clúster, como la reducción de la escala o el envío escalonado, después de que el clúster haya estado ejecutándose durante algún tiempo. El periodo de tiempo depende del periodo de validez del ticket de Kerberos que se haya definido. El problema de la reducción vertical afecta tanto a las solicitudes de reducción vertical automática como a las solicitudes de reducción vertical explícita que haya enviado. Las operaciones adicionales del clúster también pueden verse afectadas.
Solución:
-
SSHcomo
hadoop
usuario del nodo principal principal del EMR clúster con varios nodos principales. -
Ejecute el siguiente comando para renovar el ticket de Kerberos para el usuario de
hadoop
.kinit -kt <keytab_file> <principal>
Normalmente, el archivo keytab se encuentra en
/etc/hadoop.keytab
y la entidad principal tiene la forma dehadoop/<hostname>@<REALM>
.
nota
Esta solución alternativa estará en vigor durante el periodo de validez del ticket de Kerberos. Esta duración es de 10 horas de forma predeterminada, pero se puede configurar con los ajustes de Kerberos. Debe volver a ejecutar el comando anterior una vez que venza el ticket de Kerberos.
-
Versiones de los componentes de la versión 6.0.0
Los componentes que Amazon EMR instala con esta versión se muestran a continuación. Algunos se instalan como parte de paquetes de aplicación de Big Data. Otros son exclusivos de Amazon EMR y se instalan para los procesos y funciones del sistema. Normalmente, estos componentes comienzan con emr
o aws
. Los paquetes de aplicaciones de macrodatos de la versión más reciente de Amazon EMR suelen ser la última versión que se encuentra en la comunidad. Hacemos que los lanzamientos comunitarios estén disponibles en Amazon lo antes EMR posible.
Algunos componentes de Amazon EMR difieren de las versiones comunitarias. Estos componentes tienen una etiqueta de versión con el formato
. La CommunityVersion
-amzn-EmrVersion
empieza por 0. Por ejemplo, si el componente comunitario de código abierto denominado EmrVersion
myapp-component
en la versión 2.2 se ha modificado tres veces para incluirlo en diferentes EMR versiones de Amazon, su versión de lanzamiento aparece como2.2-amzn-2
.
Componente | Versión | Descripción |
---|---|---|
aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK |
emr-ddb | 4.14.0 | Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop. |
emr-goodies | 3.0.0 | Bibliotecas especialmente prácticas para el ecosistema de Hadoop. |
emr-kinesis | 3.5.0 | Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop. |
emr-s3-dist-cp | 2.14.0 | Aplicación de copia distribuida optimizada para Amazon S3. |
emr-s3-select | 1.5.0 | EMRConector S3 Select |
emrfs | 2.39.0 | Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop. |
ganglia-monitor | 3.7.2 | Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia. |
ganglia-metadata-collector | 3.7.2 | Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia. |
ganglia-web | 3.7.1 | Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia. |
hadoop-client | 3.2.1-amzn-0 | Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 3.2.1-amzn-0 | HDFSservicio a nivel de nodo para almacenar bloques. |
hadoop-hdfs-library | 3.2.1-amzn-0 | HDFSbiblioteca y cliente de línea de comandos |
hadoop-hdfs-namenode | 3.2.1-amzn-0 | HDFSservicio para rastrear nombres de archivos y ubicaciones de bloques. |
hadoop-hdfs-journalnode | 3.2.1-amzn-0 | HDFSservicio para administrar el diario del sistema de archivos Hadoop en clústeres de alta disponibilidad. |
hadoop-httpfs-server | 3.2.1-amzn-0 | HTTPpunto final para operaciones. HDFS |
hadoop-kms-server | 3.2.1-amzn-0 | Servidor de administración de claves criptográficas basado en el de Hadoop. KeyProvider API |
hadoop-mapred | 3.2.1-amzn-0 | MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce |
hadoop-yarn-nodemanager | 3.2.1-amzn-0 | YARNservicio para gestionar contenedores en un nodo individual. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-0 | YARNservicio para asignar y administrar los recursos del clúster y las aplicaciones distribuidas. |
hadoop-yarn-timeline-server | 3.2.1-amzn-0 | Servicio de recuperación de información actual e histórica para YARN aplicaciones. |
hbase-hmaster | 2.2.3 | Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos. |
hbase-region-server | 2.2.3 | Servicio para prestar servicio a una o más HBase regiones. |
hbase-client | 2.2.3 | HBasecliente de línea de comandos. |
hbase-rest-server | 2.2.3 | Servicio que proporciona un RESTful HTTP punto final para. HBase |
hbase-thrift-server | 2.2.3 | Servicio que proporciona un punto final de Thrift aHBase. |
hcatalog-client | 3.1.2-amzn-0 | El cliente de línea de comando "hcat" para manipular hcatalog-server. |
hcatalog-server | 3.1.2-amzn-0 | Prestación de serviciosHCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas. |
hcatalog-webhcat-server | 3.1.2-amzn-0 | HTTPpunto final que proporciona una REST interfaz paraHCatalog. |
hive-client | 3.1.2-amzn-0 | Cliente de línea de comando de Hive. |
hive-hbase | 3.1.2-amzn-0 | Hive-hbase client. |
hive-metastore-server | 3.1.2-amzn-0 | Servicio para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL las operaciones de Hadoop. |
hive-server2 | 3.1.2-amzn-0 | Servicio para aceptar consultas de Hive como solicitudes web. |
hudi | 0.5.0-incubating-amzn-1 | Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia. |
hudi-presto | 0.5.0-incubating-amzn-1 | Biblioteca de paquetes para ejecutar Presto con Hudi. |
hue-server | 4.4.0 | Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop |
jupyterhub | 1.0.0 | Servidor multiusuario para blocs de notas Jupyter |
livy-server | 0.6.0-incubating | RESTinterfaz para interactuar con Apache Spark |
nginx | 1.12.1 | nginx [engine x] es HTTP un servidor proxy inverso |
mxnet | 1.5.1 | Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo. |
mariadb-server | 5.5.64+ | Servidor de base de datos de MariaDB. |
nvidia-cuda | 9.2.88 | Controladores Nvidia y conjunto de herramientas Cuda |
oozie-client | 5.1.0 | Cliente de línea de comando de Oozie. |
oozie-server | 5.1.0 | Servicio para aceptar solicitudes de flujo de trabajo de Oozie. |
opencv | 3.4.0 | Biblioteca de visión artificial de código abierto. |
phoenix-library | 5.0.0- -2.0 HBase | Las bibliotecas de Phoenix para servidor y cliente |
phoenix-query-server | 5.0.0- -2.0 HBase | Un servidor liviano que proporciona JDBC acceso, así como búferes de protocolo y acceso a JSON formatos al Avatica API |
presto-coordinator | 0.230 | Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers. |
presto-worker | 0.230 | Service para ejecutar partes de una consulta. |
presto-client | 0.230 | Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado. |
r | 3.4.3 | Proyecto R para análisis estadístico |
spark-client | 2.4.4 | Clientes de línea de comando de Spark. |
spark-history-server | 2.4.4 | IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada. |
spark-on-yarn | 2.4.4 | Motor de ejecución en memoria para. YARN |
spark-yarn-slave | 2.4.4 | Bibliotecas Apache Spark que necesitan los YARN esclavos. |
tensorflow | 1.14.0 | TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento. |
tez-on-yarn | 0.9.2 | La YARN aplicación y las bibliotecas de Tez. |
webserver | 2.4.41+ | HTTPServidor Apache. |
zeppelin-server | 0.9.0- SNAPSHOT | Bloc de notas basado en web que permite el análisis de datos interactivo. |
zookeeper-server | 3.4.14 | Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo. |
zookeeper-client | 3.4.14 | ZooKeeper cliente de línea de comandos. |
Clasificaciones de configuración de la versión 6.0.0
Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un XML archivo de configuración de la aplicación, por ejemplohive-site.xml
. Para obtener más información, consulte Configuración de aplicaciones.
Clasificaciones de emr-6.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Clasificaciones | Descripción | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
capacity-scheduler | Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-executor | Cambie los valores en el archivo container-executor.cfg YARN de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-log4j | Cambie los valores en el archivo container-log4j.properties de Hadoop. YARN | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
core-site | Cambiar los valores en el archivo core-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
emrfs-site | EMRFSCambia la configuración. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-env | Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-log4j | Cambiar los valores en el archivo log4j.properties de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-server | Cambiar la configuración del servidor ssl de Hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-client | Cambiar la configuración del cliente ssl de Hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase | EMRConfiguraciones seleccionadas por Amazon para ApacheHBase. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-env | Cambie los valores en HBase su entorno. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-log4j | Cambie los valores en el archivo HBase hbase-log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-metrics | Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-policy | Cambie los valores en HBase el archivo hbase-policy.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-site | Cambie los valores en HBase el archivo hbase-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-encryption-zones | Configure las zonas de HDFS cifrado. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-env | Cambie los valores del HDFS entorno. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-site | Cambie los valores en HDFS el archivo hdfs-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-env | Cambie los valores en HCatalog el entorno. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-jndi | Cambie los valores en HCatalog jndi.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-proto-hive-site | Cambie los valores en .xmlHCatalog. proto-hive-site | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-env | Cambie los valores en el entorno ebHCat de HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-log4j2 | Cambie los valores en el ebHCat log4j2.properties de HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-site | Cambie los valores en el archivo webhcat-site.xml HCatalog de W. ebHCat | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive | EMRConfiguraciones seleccionadas por Amazon para Apache Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-beeline-log4j2 | Cambiar los valores en el archivo beeline-log4j2.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-parquet-logging | Cambiar los valores en el archivo parquet-logging.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-env | Cambiar los valores en el entorno de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-exec-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. hive-exec-log | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-llap-daemon-log4j2 | Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-log4j2 | Cambiar los valores en el archivo hive-log4j2.properties de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-site | Cambiar los valores en el archivo hive-site.xml de Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hiveserver2-site | Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hue-ini | Cambiar los valores en el archivo ini de Hue | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-env | Cambie los valores del entorno. HTTPFS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-site | Cambiar los valores en el archivo httpfs-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-acls | Cambiar los valores en el archivo kms-acls.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-env | Cambie los valores en el entorno de Hadoop. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-log4j | Cambiar los valores en el archivo kms-log4j.properties de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-site | Cambiar los valores en el archivo kms-site.xml de Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-notebook-conf | Cambiar los valores en el archivo jupyter_notebook_config.py de Jupyter Notebook. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-hub-conf | Cambie los valores en el JupyterHubs archivo jupyterhub_config.py. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-s3-conf | Configurar la persistencia en S3 del bloc de notas de Jupyter. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-sparkmagic-conf | Cambiar los valores en el archivo config.json de Sparkmagic. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-conf | Cambiar los valores en el archivo livy.conf de Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-env | Cambiar los valores en el entorno de Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-log4j | Cambiar la configuración de log4j.properties de Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-env | Cambie los valores en el entorno de la MapReduce aplicación. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-site | Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-env | Cambiar los valores en el entorno de Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-log4j | Cambiar los valores en el archivo oozie-log4j.properties de Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-site | Cambiar los valores en el archivo oozie-site.xml de Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-metrics | Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-site | Cambiar los valores en el archivo hbase-site.xml de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-log4j | Cambiar los valores en el archivo log4j.properties de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-metrics | Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-log | Cambiar los valores en el archivo log.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-config | Cambiar los valores en el archivo config.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-password-authenticator | Cambiar los valores en el archivo password-authenticator.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-env | Cambiar valores en el archivo presto-env.sh de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-node | Cambiar valores en el archivo node.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-blackhole | Cambiar los valores en el archivo blackhole.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-cassandra | Cambiar los valores en el archivo cassandra.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-hive | Cambiar los valores en el archivo hive.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-jmx | Cambiar los valores en el archivo jmx.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-kafka | Cambiar los valores en el archivo kafka.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-localfile | Cambiar los valores en el archivo localfile.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-memory | Cambiar los valores del archivo memory.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mongodb | Cambiar los valores en el archivo mongodb.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mysql | Cambiar los valores en el archivo mysql.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-postgresql | Cambiar los valores en el archivo postgresql.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-raptor | Cambiar los valores en el archivo raptor.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redis | Cambiar los valores en el archivo redis.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redshift | Cambiar los valores en el archivo redshift.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpch | Cambiar los valores en el archivo tpch.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpcds | Cambiar los valores del archivo tpcds.properties de Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-dbks-site | Cambie los valores en el archivo dbks-site.xml de Ranger. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-site | Cambie los valores en el ranger-kms-site archivo.xml de Ranger. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-env | Cambie los valores en el entorno de RangerKMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-log4j | Cambie los valores en el archivo kms-log4j.properties de Ranger. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-db-ca | Cambie los valores del archivo CA en S3 para Mi conexión con Ranger. SQL SSL KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-env | Cambie los valores del EMR RecordServer entorno. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-conf | Cambie los valores en el EMR RecordServer archivo erver.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-log4j | Cambie los valores en el archivo EMR RecordServer log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark | EMRConfiguraciones seleccionadas por Amazon para Apache Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-defaults | Cambiar los valores en el archivo spark-defaults.conf de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-env | Cambiar los valores en el entorno de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-hive-site | Cambiar los valores en el archivo hive-site.xml de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-log4j | Cambiar los valores en el archivo log4j.properties de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-metrics | Cambiar los valores en el archivo metrics.properties de Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
tez-site | Cambiar los valores en el archivo tez-site.xml de Tez. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-env | Cambia los valores del YARN entorno. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-site | Cambie los valores en YARN el archivo yarn-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-env | Cambiar los valores en el entorno de Zeppelin. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-config | Cambie los valores en ZooKeeper el archivo zoo.cfg. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-log4j | Cambie los valores en el ZooKeeper archivo log4j.properties. |