Amazon EMR, versión 6.15.0 - Amazon EMR

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Amazon EMR, versión 6.15.0

Versiones de las aplicaciones de la versión 6.15.0

Esta versión admite las siguientes aplicaciones: Delta, Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, Iceberg, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Trino, Zeppelin y ZooKeeper.

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:

Información sobre la versión de la aplicación
emr-6.15.0 emr-6.14.0 emr-6.13.0 emr-6.12.0
AWS SDK for Java 2.20.160-amzn-0, 1.12.5691.12.5431.12,5131.12.490
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Scala 2.12.172.12.152.12.152.12.15
AmazonCloudWatchAgent - - - -
Delta2.4.02.4.02.4.02.4.0
Flink1.17.11.17.11.17.01.17.0
Ganglia3.7.23.7.23.7.23.7.2
HBase2.4.172.4.172.4.172.4.17
HCatalog3.1.33.1.33.1.33.1.3
Hadoop3.3.63.3.33.3.33.3.3
Hive3.1.33.1.33.1.33.1.3
Hudi0.14.0-amzn-00.13.1-amzn-20.13.1-amzn-10.13.1-amzn-0
Hue4.11.04.11.04.11.04.11.0
Iceberg1.4.0-amzn-01.3.1-amzn-01.3.0-amzn-11.3.0-amzn-0
JupyterEnterpriseGateway2.6.02.6.02.6.02.6.0
JupyterHub1.5.01.5.01.5.01.4.1
Livy0.7.10.7.10.7.10.7.1
MXNet1.9.11.9.11.9.11.9.1
Mahout - - - -
Oozie5.2.15.2.15.2.15.2.1
Phoenix5.1.35.1.35.1.35.1.3
Pig0.17.00.17.00.17.00.17.0
Presto0,2830,2810,2810,281
Spark3.4.13.4.13.4.13.4.0
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.11.02.11.02.11.02.11.0
Tez0.10.20.10.20.10.20.10.2
Trino (PrestoSQL)426422414414
Zeppelin0.10.10.10.10.10.10.10.1
ZooKeeper3.5.103.5.103.5.103.5.10

Notas de la versión 6.15.0

Las siguientes notas de la versión incluyen información sobre la versión 6.15.0 de Amazon EMR. Los cambios son respecto a la versión 6.14.0. Para obtener información sobre el cronograma de lanzamiento, consulte el Registro de cambios de la versión 6.15.0.

Nuevas características
  • Actualizaciones de la aplicación: Amazon EMR 6.15.0 application upgrades include Apache Hadoop 3.3.6, Apache Hudi 0.14.0-amzn-0, Iceberg 1.4.0-amzn-0, and Trino 426.

  • Lanzamientos más rápidos para clústeres de EMR que se ejecutan en EC2: ahora es hasta un 35 % más rápido lanzar un clúster de Amazon EMR en EC2. Con esta mejora, la mayoría de los clientes pueden lanzar sus clústeres en 5 minutos o menos.

  • CodeWhisperer para EMR Studio: ahora puede utilizar Amazon con CodeWhisperer Amazon EMR Studio para obtener recomendaciones en tiempo real a medida que escribe código. JupyterLab CodeWhisperer puede completar sus comentarios, terminar líneas de código individuales, hacer line-by-line recomendaciones y generar funciones con formato completo.

  • Tiempos de reinicio de tareas más rápidos con Flink: con Amazon EMR 6.15.0 y versiones posteriores, Apache Flink dispone de varios mecanismos nuevos para mejorar el tiempo de reinicio de los trabajos durante las operaciones de recuperación o escalado de tareas. Esto optimiza la velocidad de los gráficos de recuperación y reinicio de la ejecución para mejorar la estabilidad del trabajo.

  • Control de acceso detallado y a nivel de tabla para formatos de tabla abierta: con Amazon EMR 6.15.0 y versiones posteriores, cuando ejecuta trabajos de Spark en Amazon EMR en clústeres de EC2 que acceden a los datos del catálogo de datos de AWS Glue, puede AWS Lake Formation utilizar para aplicar permisos a nivel de tabla, fila, columna y celda en tablas basadas en Hudi, Iceberg o Delta Lake.

  • Actualización de Hadoop: Amazon EMR 6.15.0 incluye una actualización de Apache Hadoop a la versión 3.3.6. Hadoop 3.3.6 era la versión más reciente en el momento de la implementación de Amazon EMR 6.15, lanzada por Apache en junio de 2023. Las versiones anteriores de Amazon EMR (6.9.0 a 6.14.x) utilizaban Hadoop 3.3.3.

    La actualización incluye cientos de mejoras y correcciones, además de características que incluyen parámetros de nodos de datos reconfigurables, la opción DFSAdmin para iniciar operaciones de reconfiguración masiva en todos los nodos de datos activos y una API vectorizada que permite a los lectores más exigentes especificar varios rangos de lectura. Hadoop 3.3.6 también incorpora compatibilidad con las API de HDFS y la semántica de su registro de escritura anticipada (WAL), de modo que HBase pueda ejecutarse en otras implementaciones de sistemas de almacenamiento. Para obtener más información, consulte los registros de cambios de las versiones 3.3.4, 3.3.5 y 3.3.6 en la documentación de Apache Hadoop.

  • Soporte para AWS SDK for Java, versión 2: las aplicaciones de Amazon EMR 6.15.0 pueden usar las versiones 1.12.569 o 2.20.160 AWS del SDK para Java si la aplicación es compatible con la versión 2. El AWS SDK para Java 2.x es una importante reescritura del código base de la versión 1.x. Se basa en Java 8 y agrega varias características solicitadas con frecuencia. Entre estas se incluyen la compatibilidad con operaciones de E/S sin bloqueo y la capacidad de conectar una implementación HTTP diferente en tiempo de ejecución. Para obtener más información, incluida una guía de migración del SDK para Java v1 a la v2, consulte la guía AWS SDK para Java, versión 2.

Cambios, mejoras y problemas resueltos
  • Para mejorar sus clústeres de EMR de alta disponibilidad, esta versión permite la conectividad con los daemons de Amazon EMR en un host local que utiliza puntos de conexión IPv6.

  • Esta versión permite que TLS 1.2 se comunique con todos los nodos principales del clúster de alta disponibilidad ZooKeeper aprovisionado.

  • Esta versión mejora la administración de los archivos de registro de ZooKeeper transacciones que se mantienen en los nodos principales para minimizar los escenarios en los que los archivos de registro se exceden de los límites e interrumpen las operaciones del clúster.

  • Esta versión hace que la comunicación entre nodos sea más resiliente para los clústeres de EMR de alta disponibilidad. Esta mejora reduce la posibilidad de que se produzcan errores en las acciones de arranque o en el inicio del clúster.

  • En Amazon EMR 6.15.0, Tez presenta configuraciones que puede especificar para abrir de forma asíncrona las divisiones de entrada en una división agrupada de Tez. Esto se traduce en un rendimiento más rápido de las consultas de lectura cuando hay un gran número de divisiones de entrada en una sola división agrupada de Tez. Para obtener más información, consulte Apertura de división asíncrona de Tez.

  • Al lanzar un clúster con la última versión del parche de Amazon EMR 5.36 o superior, 6.6 o superior, o 7.0 o superior, Amazon EMR utiliza la última versión de Amazon Linux 2023 o Amazon Linux 2 como la AMI de Amazon EMR predeterminada. Para más información, consulte Uso de la AMI de Amazon Linux predeterminada para Amazon EMR.

    OsReleaseLabel (versión de Amazon Linux) Versión de kernel de Amazon Linux Fecha de disponibilidad Regiones admitidas
    2.0.20240223.0 4,14,336 8 de marzo de 2024 EE.UU. Este (Norte de Virginia), EE.UU. Este (Ohio), EE.UU. Oeste (Norte de California), EE.UU. Oeste (Oregón), Europa (Estocolmo), Europa (Milán), Europa (España), Europa (Fráncfort), Europa (Zúrich), Europa (Irlanda), Europa (Londres), Europa (París), Asia Pacífico (Hong Kong), Asia Pacífico (Mumbai), Asia Pacífico (Hyderabad), Asia Pacífico (Tokio), Asia Pacífico (Seúl), Asia Pacífico (Osaka), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Yakarta), Asia Pacífico (Melbourne), África (Ciudad del Cabo), Sudamérica (São Paulo), Oriente Medio (Bahréin), Oriente Medio (Emiratos Árabes Unidos), Canadá (Centro), Israel (Tel Aviv), AWS GovCloud (EEUU-Oeste), AWS GovCloud (EEUU-Este), China (Pekín), China (Ningxia), Canadá Oeste (Calgary)
    2.0.20240131.0 4,14,336 14 de febrero de 2024 EE.UU. Este (Norte de Virginia), EE.UU. Este (Ohio), EE.UU. Oeste (Norte de California), EE.UU. Oeste (Oregón), Europa (Estocolmo), Europa (Milán), Europa (España), Europa (Fráncfort), Europa (Zúrich), Europa (Irlanda), Europa (Londres), Europa (París), Asia Pacífico (Hong Kong), Asia Pacífico (Mumbai), Asia Pacífico (Hyderabad), Asia Pacífico (Tokio), Asia Pacífico (Seúl), Asia Pacífico (Osaka), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Yakarta), Asia Pacífico (Melbourne), África (Ciudad del Cabo), Sudamérica (São Paulo), Oriente Medio (Bahréin), Oriente Medio (Emiratos Árabes Unidos), Canadá (Centro), Israel (Tel Aviv), AWS GovCloud (EEUU-Oeste), AWS GovCloud (EEUU-Este), China (Pekín), China (Ningxia), Canadá Oeste (Calgary)
    2.0.20240124.0 4,14.336 7 de febrero de 2024 EE.UU. Este (Norte de Virginia), EE.UU. Este (Ohio), EE.UU. Oeste (Norte de California), EE.UU. Oeste (Oregón), Europa (Estocolmo), Europa (Milán), Europa (España), Europa (Fráncfort), Europa (Zúrich), Europa (Irlanda), Europa (Londres), Europa (París), Asia Pacífico (Hong Kong), Asia Pacífico (Mumbai), Asia Pacífico (Hyderabad), Asia Pacífico (Tokio), Asia Pacífico (Seúl), Asia Pacífico (Osaka), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Yakarta), Asia Pacífico (Melbourne), África (Ciudad del Cabo), Sudamérica (São Paulo), Oriente Medio (Bahréin), Oriente Medio (Emiratos Árabes Unidos), Canadá (Centro), Israel (Tel Aviv), AWS GovCloud (EEUU-Oeste), AWS GovCloud (EEUU-Este), China (Pekín), China (Ningxia), Canadá Oeste (Calgary)
    2.0.20240109,0 4,1334 24 de enero de 2024 EE.UU. Este (Norte de Virginia), EE.UU. Este (Ohio), EE.UU. Oeste (Norte de California), EE.UU. Oeste (Oregón), Europa (Estocolmo), Europa (Milán), Europa (España), Europa (Fráncfort), Europa (Zúrich), Europa (Irlanda), Europa (Londres), Europa (París), Asia Pacífico (Hong Kong), Asia Pacífico (Mumbai), Asia Pacífico (Hyderabad), Asia Pacífico (Tokio), Asia Pacífico (Seúl), Asia Pacífico (Osaka), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Yakarta), Asia Pacífico (Melbourne), África (Ciudad del Cabo), Sudamérica (São Paulo), Oriente Medio (Bahréin), Oriente Medio (Emiratos Árabes Unidos), Canadá (Centro), Israel (Tel Aviv), AWS GovCloud (EEUU-Oeste), AWS GovCloud (EEUU-Este), China (Pekín), China (Ningxia), Canadá Oeste (Calgary)
    2.0.20231218.0 4,14,330 2 de enero de 2024 EE.UU. Este (Norte de Virginia), EE.UU. Este (Ohio), EE.UU. Oeste (Norte de California), EE.UU. Oeste (Oregón), Europa (Estocolmo), Europa (Milán), Europa (España), Europa (Fráncfort), Europa (Zúrich), Europa (Irlanda), Europa (Londres), Europa (París), Asia Pacífico (Hong Kong), Asia Pacífico (Mumbai), Asia Pacífico (Hyderabad), Asia Pacífico (Tokio), Asia Pacífico (Seúl), Asia Pacífico (Osaka), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Yakarta), Asia Pacífico (Melbourne), África (Ciudad del Cabo), Sudamérica (São Paulo), Oriente Medio (Bahréin), Oriente Medio (Emiratos Árabes Unidos), Canadá (Centro), Israel (Tel Aviv), AWS GovCloud (EEUU-Oeste), AWS GovCloud (EEUU-Este), China (Pekín), China (Ningxia)
    2.0.20231206.0 4,14.330 22 de diciembre de 2023 EE.UU. Este (Norte de Virginia), EE.UU. Este (Ohio), EE.UU. Oeste (Norte de California), EE.UU. Oeste (Oregón), Europa (Estocolmo), Europa (Milán), Europa (España), Europa (Fráncfort), Europa (Zúrich), Europa (Irlanda), Europa (Londres), Europa (París), Asia Pacífico (Hong Kong), Asia Pacífico (Mumbai), Asia Pacífico (Hyderabad), Asia Pacífico (Tokio), Asia Pacífico (Seúl), Asia Pacífico (Osaka), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Yakarta), Asia Pacífico (Melbourne), África (Ciudad del Cabo), Sudamérica (São Paulo), Oriente Medio (Bahréin), Oriente Medio (Emiratos Árabes Unidos), Canadá (Centro), Israel (Tel Aviv), AWS GovCloud (EEUU-Oeste), AWS GovCloud (EEUU-Este), China (Pekín), China (Ningxia)
    2.0.20231116.0 4,14328 11 de diciembre de 2023 EE.UU. Este (Norte de Virginia), EE.UU. Este (Ohio), EE.UU. Oeste (Norte de California), EE.UU. Oeste (Oregón), Europa (Estocolmo), Europa (Milán), Europa (España), Europa (Fráncfort), Europa (Zúrich), Europa (Irlanda), Europa (Londres), Europa (París), Asia Pacífico (Hong Kong), Asia Pacífico (Mumbai), Asia Pacífico (Hyderabad), Asia Pacífico (Tokio), Asia Pacífico (Seúl), Asia Pacífico (Osaka), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Yakarta), Asia Pacífico (Melbourne), África (Ciudad del Cabo), Sudamérica (São Paulo), Oriente Medio (Bahréin), Oriente Medio (Emiratos Árabes Unidos), Canadá (Centro), Israel (Tel Aviv), AWS GovCloud (EEUU-Oeste), AWS GovCloud (EEUU-Este), China (Pekín), China (Ningxia)
    2.0.20231101.0 4.14.327 13 de noviembre de 2023 EE.UU. Este (Norte de Virginia), EE.UU. Este (Ohio), EE.UU. Oeste (Norte de California), EE.UU. Oeste (Oregón), Europa (Estocolmo), Europa (Milán), Europa (España), Europa (Fráncfort), Europa (Zúrich), Europa (Irlanda), Europa (Londres), Europa (París), Asia Pacífico (Hong Kong), Asia Pacífico (Mumbai), Asia Pacífico (Hyderabad), Asia Pacífico (Tokio), Asia Pacífico (Seúl), Asia Pacífico (Osaka), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Yakarta), Asia Pacífico (Melbourne), África (Ciudad del Cabo), Sudamérica (São Paulo), Oriente Medio (Bahréin), Oriente Medio (Emiratos Árabes Unidos), Canadá (Centro), Israel (Tel Aviv), AWS GovCloud (EEUU-Oeste), AWS GovCloud (EEUU-Este), China (Pekín), China (Ningxia)

Versiones predeterminadas de Java para la versión 6.15.0

Las versiones 6.12.0 y posteriores de Amazon EMR son compatibles con todas las aplicaciones con Amazon Corretto 8 de forma predeterminada, excepto Trino. En el caso de Trino, Amazon EMR es compatible con Amazon Corretto 17 de forma predeterminada a partir de la versión 6.9.0 de Amazon EMR. Amazon EMR también admite algunas aplicaciones con Amazon Corretto 11 y 17. Esas aplicaciones se indican en la siguiente tabla. Si desea cambiar la JVM predeterminada del clúster, siga las instrucciones de Configuración de aplicaciones para utilizar una máquina virtual de Java específica para cada aplicación que se ejecute en el clúster. Solo se puede usar una versión de tiempo de ejecución de Java en un clúster. Amazon EMR no admite la ejecución de distintos nodos o aplicaciones en distintas versiones de tiempo de ejecución en el mismo clúster.

Si bien Amazon EMR es compatible con Amazon Corretto 11 y 17 en Apache Spark, Apache Hadoop y Apache Hive, es posible que el rendimiento de algunas cargas de trabajo disminuya cuando utilice estas versiones de Corretto. Se recomienda que pruebe sus cargas de trabajo antes de cambiar los valores predeterminados.

En la siguiente tabla, se muestran las versiones predeterminadas de Java para las aplicaciones en Amazon EMR 6.15.0:

Aplicación Versión de Java o Amazon Corretto (el valor predeterminado está en negrita)
Delta 17, 11, 8
Flink 11, 8
Ganglia 8
HBase 11, 8
HCatalog 17, 11, 8
Hadoop 17, 11, 8
Hive 17, 11, 8
Hudi 17, 11, 8
Iceberg 17, 11, 8
Livy 17, 11, 8
Oozie 17, 11, 8
Phoenix 8
PrestoDB 8
Spark 17, 11, 8
Spark RAPIDS 17, 11, 8
Sqoop 8
Tez 17, 11, 8
Trino 17
Zeppelin 8
Pig 8
ZooKeeper 8

Versiones de los componentes de la versión 6.15.0

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de Big Data. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con emr o aws. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato CommunityVersion-amzn-EmrVersion. La EmrVersion empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado myapp-component con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será 2.2-amzn-2.

Componente Versión Descripción
aws-sagemaker-spark-sdk1.4.2SDK de Amazon SageMaker Spark
delta2.4.0Delta Lake es un formato de tabla abierto para conjuntos de datos analíticos de gran tamaño
delta-standalone-connectors0.6.0Los conectores de Delta ofrecen diferentes tiempos de ejecución para integrar Delta Lake con motores como Flink, Hive y Presto.
emr-ddb5.2.0Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop.
emr-goodies3.8.0Bibliotecas especialmente prácticas para el ecosistema de Hadoop.
emr-kinesis3.12.0Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop.
emr-notebook-env1.7.0Entorno de Conda para cuaderno de EMR que incluye una puerta de enlace empresarial de Jupyter
emr-s3-dist-cp2.29.0Aplicación de copia distribuida optimizada para Amazon S3.
emr-s3-select2.8.0Conector S3Select de EMR
emr-wal-cli1.2.0CLI utilizada para eliminar o enumerar WAL de ERM.
emrfs2.60.0Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop.
flink-client1.17.1-amzn-1Scripts y aplicaciones de cliente de línea de comando de Apache Flink.
flink-jobmanager-config1.17.1-amzn-1Administración de recursos en nodos EMR para Apache Flink. JobManager
ganglia-monitor3.7.2Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia.
ganglia-metadata-collector3.7.2Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia.
ganglia-web3.7.1Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia.
hadoop-client3.3.6-amzn-1Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode3.3.6-amzn-1Servicio de nivel de nodos de HDFS para el almacenamiento de bloques.
hadoop-hdfs-library3.3.6-amzn-1Biblioteca y cliente de línea de comandos HDFS
hadoop-hdfs-namenode3.3.6-amzn-1Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones.
hadoop-hdfs-journalnode3.3.6-amzn-1Servicio de HDFS para administrar los archivos de Hadoop periódico en clústeres de alta disponibilidad.
hadoop-httpfs-server3.3.6-amzn-1Punto de enlace HTTP para operaciones HDFS.
hadoop-kms-server3.3.6-amzn-1Servidor de administración de claves criptográficas basado en la API de Hadoop. KeyProvider
hadoop-mapred3.3.6-amzn-1MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce
hadoop-yarn-nodemanager3.3.6-amzn-1Servicio de YARN para la administración de contenedores en un nodo individual.
hadoop-yarn-resourcemanager3.3.6-amzn-1Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas.
hadoop-yarn-timeline-server3.3.6-amzn-1Servicio para recuperar información actual e histórica para aplicaciones de YARN.
hbase-hmaster2.4.17-amzn-3Servicio para un clúster de HBase responsable de la coordinación de regiones y ejecución de comandos administrativos.
hbase-region-server2.4.17-amzn-3Servicio que atiende a una o varias regiones de HBase.
hbase-client2.4.17-amzn-3Cliente de línea de comando de HBase.
hbase-rest-server2.4.17-amzn-3Servicio que proporciona un punto de enlace HTTP RESTful para HBase.
hbase-thrift-server2.4.17-amzn-3Service que proporciona un punto de enlace de Thrift a HBase.
hbase-operator-tools2.4.17-amzn-3Herramienta de reparación para clústeres de Apache HBase.
hcatalog-client3.1.3-amzn-8El cliente de línea de comando "hcat" para manipular hcatalog-server.
hcatalog-server3.1.3-amzn-8Service que proporciona a HCatalog, una tabla y capa de administración de almacenamiento para aplicaciones distribuidas.
hcatalog-webhcat-server3.1.3-amzn-8Punto de enlace HTTP que proporciona una interfaz REST a HCatalog.
hive-client3.1.3-amzn-8Cliente de línea de comando de Hive.
hive-hbase3.1.3-amzn-8Hive-hbase client.
hive-metastore-server3.1.3-amzn-8Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop.
hive-server23.1.3-amzn-8Servicio para aceptar consultas de Hive como solicitudes web.
hudi0.14.0-amzn-0Marco de procesamiento incremental para impulsar la canalización de datos a baja latencia y alta eficiencia.
hudi-presto0.14.0-amzn-0Biblioteca de paquetes para ejecutar Presto con Hudi.
hudi-trino0.14.0-amzn-0Biblioteca de paquetes para ejecutar Trino con Hudi.
hudi-spark0.14.0-amzn-0Biblioteca de paquetes para ejecutar Spark con Hudi.
hue-server4.11.0Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop
iceberg1.4.0-amzn-0Apache Iceberg es un formato de tabla abierto para conjuntos de datos analíticos muy grandes
jupyterhub1.5.0Servidor multiusuario para blocs de notas Jupyter
livy-server0.7.1-incubatingInterfaz de REST para interactuar con Apache Spark
nginx1.12.1nginx [engine x] es un servidor HTTP y proxy inverso
mxnet1.9.1Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo.
mariadb-server5.5.68+Servidor de base de datos de MariaDB.
nvidia-cuda11,8,0Controladores Nvidia y conjunto de herramientas Cuda
oozie-client5.2.1Cliente de línea de comando de Oozie.
oozie-server5.2.1Servicio para aceptar solicitudes de flujo de trabajo de Oozie.
opencv4.7.0Biblioteca de visión artificial de código abierto.
phoenix-library5.1.3Las bibliotecas de Phoenix para servidor y cliente
phoenix-connectors5.1.3Conectores de Apache Phoenix para Spark-3
phoenix-query-server5.1.3Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica
presto-coordinator0.283-amzn-0Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers.
presto-worker0.283-amzn-0Service para ejecutar partes de una consulta.
presto-client0.283-amzn-0Cliente de línea de comandos Presto que se instala en los nodos principales en espera de un clúster de HA donde el servidor Presto no se ha iniciado.
trino-coordinator426-amzn-0Servicio para aceptar consultas y administrar la ejecución de consultas entre trino-workers.
trino-worker426-amzn-0Service para ejecutar partes de una consulta.
trino-client426-amzn-0Cliente de línea de comandos Trino que se instala en los maestros en espera de un clúster de HA donde el servidor Trino no se ha iniciado.
pig-client0.17.0Cliente de línea de comando de Pig.
r4.0.2Proyecto R para análisis estadístico
ranger-kms-server2.0.0Sistema de administración de claves Apache Ranger
spark-client3.4.1-amzn-2Clientes de línea de comando de Spark.
spark-history-server3.4.1-amzn-2IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada.
spark-on-yarn3.4.1-amzn-2Motor de ejecución en memoria para YARN.
spark-yarn-slave3.4.1-amzn-2Bibliotecas de Apache Spark necesarias para esclavos de YARN.
spark-rapids23.08.1-amzn-0Complemento Nvidia Spark RAPIDS que acelera Apache Spark con GPU.
sqoop-client1.4.7Cliente de línea de comando de Apache Sqoop.
tensorflow2.11.0TensorFlow biblioteca de software de código abierto para computación numérica de alto rendimiento.
tez-on-yarn0.10.2-amzn-6La aplicación YARN de tez y bibliotecas.
tez-on-worker0.10.2-amzn-6La aplicación YARN de tez y bibliotecas para nodos de trabajo.
webserver2.4.41+Servidor HTTP de Apache.
zeppelin-server0.10.1Bloc de notas basado en web que permite el análisis de datos interactivo.
zookeeper-server3.5.10Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo.
zookeeper-client3.5.10ZooKeeper cliente de línea de comandos.

Clasificaciones de configuración de la versión 6.15.0

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, hive-site.xml. Para obtener más información, consulte Configuración de aplicaciones.

Las acciones de reconfiguración se producen cuando se especifica una configuración para los grupos de instancias de un clúster en ejecución. Amazon EMR solo inicia acciones de reconfiguración para las clasificaciones que se modifican. Para obtener más información, consulte Reconfiguración de un grupo de instancias en un clúster en ejecución.

Clasificaciones de emr-6.15.0
Clasificaciones Descripción Acciones de reconfiguración

capacity-scheduler

Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop.

Restarts the ResourceManager service.

container-executor

Cambie los valores en el archivo container-executor.cfg de Hadoop YARN.

Not available.

container-log4j

Cambiar los valores en el archivo container-log4j.properties de Hadoop YARN.

Not available.

core-site

Cambiar los valores en el archivo core-site.xml de Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Cambie la configuración relacionada con el docker.

Not available.

emrfs-site

Cambiar la configuración de EMRFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Cambiar la configuración de flink-conf.yaml.

Restarts Flink history server.

flink-log4j

Cambiar la configuración de log4j.properties de Flink.

Restarts Flink history server.

flink-log4j-session

Cambie la configuración de log4j-session.properties de Flink para sesión de Kubernetes o Yarn.

Restarts Flink history server.

flink-log4j-cli

Cambiar la configuración de log4j-cli.properties de Flink.

Restarts Flink history server.

hadoop-env

Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Cambiar los valores en el archivo log4j.properties de Hadoop.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Cambiar la configuración del servidor ssl de Hadoop

Not available.

hadoop-ssl-client

Cambiar la configuración del cliente ssl de Hadoop

Not available.

hbase

Configuración de Amazon EMR mantenida para Apache HBase.

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Cambiar los valores en el entorno de HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Cambiar los valores en el archivo hbase-log4j.properties de HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Cambiar los valores en el archivo hbase-policy.xml de HBase.

Not available.

hbase-site

Cambiar los valores en el archivo hbase-site.xml de HBase.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Configurar zonas de cifrado de HDFS.

This classification should not be reconfigured.

hdfs-env

Cambiar los valores en el entorno de HDFS.

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

Cambiar los valores en hdfs-site.xml de HDFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Cambiar los valores en el entorno de HCatalog.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Cambiar los valores en jndi.properties de HCatalog.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Cambie los valores en el proto-hive-site archivo.xml de HCatalog.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Cambiar los valores en el entorno de HCatalog WebHCat.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

Cambiar los valores en log4j2.properties de HCatalog WebHCat.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

Cambiar los valores en el archivo webhcat-site.xml de HCatalog WebHCat.

Restarts Hive WebHCat server.

hive

Configuración de Amazon EMR mantenida para Apache Hive.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Cambiar los valores en el archivo beeline-log4j2.properties de Hive.

Not available.

hive-parquet-logging

Cambiar los valores en el archivo parquet-logging.properties de Hive.

Not available.

hive-env

Cambiar los valores en el entorno de Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Cambie los valores en el archivo 4j2.properties de Hive. hive-exec-log

Not available.

hive-llap-daemon-log4j2

Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log

Not available.

hive-log4j2

Cambiar los valores en el archivo hive-log4j2.properties de Hive.

Not available.

hive-site

Cambiar los valores en el archivo hive-site.xml de Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2.

Not available.

hue-ini

Cambiar los valores en el archivo ini de Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Cambiar los valores en el entorno de HTTPFS.

Restarts Hadoop Httpfs service.

httpfs-site

Cambiar los valores en el archivo httpfs-site.xml de Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Cambiar los valores en el archivo kms-acls.xml de Hadoop.

Not available.

hadoop-kms-env

Cambiar los valores en el entorno de Hadoop KMS.

Restarts Hadoop-KMS service.

hadoop-kms-java-home

Cambie la página de inicio de Java de KMS de Hadoop

Not available.

hadoop-kms-log4j

Cambiar los valores en el archivo kms-log4j.properties de Hadoop.

Not available.

hadoop-kms-site

Cambiar los valores en el archivo kms-site.xml de Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Cambiar los valores en el entorno de Hudi.

Not available.

hudi-defaults

Cambie los valores en el archivo hudi-defaults.conf de Hudi.

Not available.

iceberg-defaults

Cambie los valores del archivo iceberg-defaults.conf de Iceberg.

Not available.

delta-defaults

Cambie los valores del archivo delta-defaults.conf de Delta.

Not available.

jupyter-notebook-conf

Cambiar los valores en el archivo jupyter_notebook_config.py de Jupyter Notebook.

Not available.

jupyter-hub-conf

Cambie los valores en JupyterHubs el archivo jupyterhub_config.py.

Not available.

jupyter-s3-conf

Configurar la persistencia en S3 del bloc de notas de Jupyter.

Not available.

jupyter-sparkmagic-conf

Cambiar los valores en el archivo config.json de Sparkmagic.

Not available.

livy-conf

Cambiar los valores en el archivo livy.conf de Livy.

Restarts Livy Server.

livy-env

Cambiar los valores en el entorno de Livy.

Restarts Livy Server.

livy-log4j2

Cambiar la configuración de log4j2.properties de Livy.

Restarts Livy Server.

mapred-env

Cambie los valores en el entorno de la MapReduce aplicación.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Cambiar los valores en el entorno de Oozie.

Restarts Oozie.

oozie-log4j

Cambiar los valores en el archivo oozie-log4j.properties de Oozie.

Restarts Oozie.

oozie-site

Cambiar los valores en el archivo oozie-site.xml de Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix.

Not available.

phoenix-hbase-site

Cambiar los valores en el archivo hbase-site.xml de Phoenix.

Not available.

phoenix-log4j

Cambiar los valores en el archivo log4j.properties de Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix.

Not available.

pig-env

Cambiar los valores en el entorno de Pig.

Not available.

pig-properties

Cambiar los valores en el archivo pig.properties de Pig.

Restarts Oozie.

pig-log4j

Cambiar los valores en el archivo log4j.properties de Pig.

Not available.

presto-log

Cambiar los valores en el archivo log.properties de Presto.

Restarts Presto-Server (for PrestoDB)

presto-config

Cambiar los valores en el archivo config.properties de Presto.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Cambiar los valores en el archivo password-authenticator.properties de Presto.

Not available.

presto-env

Cambiar valores en el archivo presto-env.sh de Presto.

Restarts Presto-Server (for PrestoDB)

presto-node

Cambiar valores en el archivo node.properties de Presto.

Not available.

presto-connector-blackhole

Cambiar los valores en el archivo blackhole.properties de Presto.

Not available.

presto-connector-cassandra

Cambiar los valores en el archivo cassandra.properties de Presto.

Not available.

presto-connector-hive

Cambiar los valores en el archivo hive.properties de Presto.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Cambiar los valores en el archivo jmx.properties de Presto.

Not available.

presto-connector-kafka

Cambiar los valores en el archivo kafka.properties de Presto.

Not available.

presto-connector-lakeformation

Cambiar los valores en el archivo lakeformation.properties de Presto.

Restarts Presto-Server (for PrestoDB)

presto-connector-localfile

Cambiar los valores en el archivo localfile.properties de Presto.

Not available.

presto-connector-memory

Cambiar los valores del archivo memory.properties de Presto.

Not available.

presto-connector-mongodb

Cambiar los valores en el archivo mongodb.properties de Presto.

Not available.

presto-connector-mysql

Cambiar los valores en el archivo mysql.properties de Presto.

Not available.

presto-connector-postgresql

Cambiar los valores en el archivo postgresql.properties de Presto.

Not available.

presto-connector-raptor

Cambiar los valores en el archivo raptor.properties de Presto.

Not available.

presto-connector-redis

Cambiar los valores en el archivo redis.properties de Presto.

Not available.

presto-connector-redshift

Cambiar los valores en el archivo redshift.properties de Presto.

Not available.

presto-connector-tpch

Cambiar los valores en el archivo tpch.properties de Presto.

Not available.

presto-connector-tpcds

Cambiar los valores del archivo tpcds.properties de Presto.

Not available.

trino-log

Cambiar los valores en el archivo log.properties de Trino.

Restarts Trino-Server (for Trino)

trino-config

Cambiar los valores en el archivo config.properties de Trino.

Restarts Trino-Server (for Trino)

trino-password-authenticator

Cambiar los valores en el archivo password-authenticator.properties de Trino.

Restarts Trino-Server (for Trino)

trino-env

Cambie los valores del archivo trino-env.sh de Trino.

Restarts Trino-Server (for Trino)

trino-node

Cambiar los valores en el archivo node.properties de Trino.

Not available.

trino-connector-blackhole

Cambiar los valores en el archivo blackhole.properties de Trino.

Not available.

trino-connector-cassandra

Cambiar los valores en el archivo cassandra.properties de Trino.

Not available.

trino-connector-delta

Cambie los valores del archivo delta.properties de Trino.

Restarts Trino-Server (for Trino)

trino-connector-hive

Cambiar los valores en el archivo hive.properties de Trino.

Restarts Trino-Server (for Trino)

trino-exchange-manager

Cambie los valores del archivo exchange-manager.properties de Trino.

Restarts Trino-Server (for Trino)

trino-connector-iceberg

Cambiar los valores en el archivo iceberg.properties de Trino.

Restarts Trino-Server (for Trino)

trino-connector-hudi

Cambiar los valores en el archivo hudi.properties de Trino.

Restarts Trino-Server (for Trino)

trino-connector-jmx

Cambiar los valores en el archivo jmx.properties de Trino.

Not available.

trino-connector-kafka

Cambiar los valores en el archivo kafka.properties de Trino.

Not available.

trino-connector-localfile

Cambiar los valores en el archivo localfile.properties de Trino.

Not available.

trino-connector-memory

Cambiar los valores en el archivo memory.properties de Trino.

Not available.

trino-connector-mongodb

Cambiar los valores en el archivo mongodb.properties de Trino.

Not available.

trino-connector-mysql

Cambiar los valores en el archivo mysql.properties de Trino.

Not available.

trino-connector-postgresql

Cambiar los valores en el archivo postgresql.properties de Trino.

Not available.

trino-connector-raptor

Cambiar los valores en el archivo raptor.properties de Trino.

Not available.

trino-connector-redis

Cambiar los valores en el archivo redis.properties de Trino.

Not available.

trino-connector-redshift

Cambiar los valores en el archivo redshift.properties de Trino.

Not available.

trino-connector-tpch

Cambiar los valores en el archivo tpch.properties de Trino.

Not available.

trino-connector-tpcds

Cambiar los valores en el archivo tpcds.properties de Trino.

Not available.

ranger-kms-dbks-site

Cambie los valores del archivo dbks-site.xml de Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-site

Cambie los valores en el ranger-kms-site archivo.xml de Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-env

Cambie los valores del entorno Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-logback

Cambie los valores del archivo kms-logback.xml de Ranger KMS.

Not available.

ranger-kms-db-ca

Cambie los valores del archivo CA en S3 para la conexión SSL de MySQL con Ranger KMS.

Not available.

spark

Configuración de Amazon EMR mantenida para Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Cambiar los valores en el archivo spark-defaults.conf de Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Cambiar los valores en el entorno de Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Cambiar los valores en el archivo hive-site.xml de Spark.

Not available.

spark-log4j2

Cambiar los valores en el archivo log4j2.properties de Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Cambiar los valores en el archivo metrics.properties de Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Cambiar los valores en el entorno de Sqoop.

Not available.

sqoop-oraoop-site

Cambie los valores en el archivo oraoop-site.xml de Sqoop. OraOop

Not available.

sqoop-site

Cambiar los valores en el archivo sqoop-site.xml de Sqoop.

Not available.

tez-site

Cambiar los valores en el archivo tez-site.xml de Tez.

Restart Oozie and HiveServer2.

yarn-env

Cambiar los valores en el entorno de YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Cambiar los valores en el archivo yarn-site.xml de YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Cambiar los valores en el entorno de Zeppelin.

Restarts Zeppelin.

zeppelin-site

Cambie los ajustes de configuración de zeppelin-site.xml.

Restarts Zeppelin.

zookeeper-config

Cambie los valores en el ZooKeeper archivo zoo.cfg.

Restarts Zookeeper server.

zookeeper-log4j

Cambie los valores en el ZooKeeper archivo log4j.properties.

Restarts Zookeeper server.

Registro de cambios de la versión 6.15.0

Registro de cambios de la versión 6.15.0 y notas de la versión
Date Evento Descripción
17-11-2020 Publicación de documentos Primera publicación de las notas de la versión 6.15.0 de Amazon EMR

2023-11-17

Implementación completa Amazon EMR 6.15.0 se ha implementado completamente en todas las regiones compatibles
13 de noviembre de 2023 Versión inicial Implementación inicial de Amazon EMR 6.15.0 en regiones comerciales limitadas