Amazon EMR versión 5.14.0 - Amazon EMR

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Amazon EMR versión 5.14.0

Versiones de las aplicaciones de la versión 5.14.0

Esta versión admite las siguientes aplicaciones: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, Tez, Zeppelin y ZooKeeper.

La siguiente tabla muestra las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres EMR versiones anteriores de Amazon (cuando proceda).

Para obtener un historial completo de las versiones de las aplicaciones de cada versión de AmazonEMR, consulta los siguientes temas:

Información sobre la versión de la aplicación
emr-5.14.0 emr-5.13.1 emr-5.13.0 emr-5.12.3
AWS SDK para Java 1.11.2971.11.2971.11.2971.11.267
Python 2.7, 3.42.7, 3.42.7, 3.42.7, 3.4
Scala 2.11.82.11.82.11.82.11.8
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.4.21.4.01.4.01.4.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.21.4.21.4.21.4.0
HCatalog2.3.22.3.22.3.22.3.2
Hadoop2.8.32.8.32.8.32.8.3
Hive2.3.22.3.22.3.22.3.2
Hudi - - - -
Hue4.1.04.1.04.1.04.1.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub0.8.1 - - -
Livy0.4.00.4.00.4.00.4.0
MXNet1.1.01.0.01.0.01.0.0
Mahout0.13.00.13.00.13.00.13.0
Oozie4.3.04.3.04.3.04.3.0
Phoenix4.13.04.13.04.13.04.13.0
Pig0.17.00.17.00.17.00.17.0
Presto0.1940.1940.1940.188
Spark2.3.02.3.02.3.02.2.1
Sqoop1.4.71.4.61.4.61.4.6
TensorFlow - - - -
Tez0.8.40.8.40.8.40.8.4
Trino (PrestoSQL) - - - -
Zeppelin0.7.30.7.30.7.30.7.3
ZooKeeper3.4.103.4.103.4.103.4.10

Notas de la versión 5.14.0

Las siguientes notas de la versión incluyen información sobre la EMR versión 5.14.0 de Amazon. Los cambios son respecto a la versión 5.13.0.

Fecha de lanzamiento inicial: 4 de junio de 2018

Actualizaciones
  • Se ha actualizado Flink a la versión 1.4.2

  • Se actualizó Apache MXnet a la versión 1.1.0

  • Se ha actualizado Apache Sqoop a la versión 1.4.7

Nuevas características
  • Se agregó JupyterHub soporte. Para obtener más información, consulte JupyterHub.

Cambios, mejoras y problemas resueltos
  • EMRFS

    • La userAgent cadena de las solicitudes a Amazon S3 se actualizó para incluir la información de usuario y grupo del principal que lo invoca. Esto se puede usar con AWS CloudTrail los registros para un seguimiento más completo de las solicitudes.

  • HBase

    • Se incluye el HBASEmodelo -20447, que soluciona un problema que podía provocar problemas de caché, especialmente cuando las regiones estaban divididas.

  • MXnet

    • Se han agregado bibliotecas OpenCV.

  • Spark

    • Cuando Spark escribe archivos de Parquet en una ubicación de Amazon S3 utilizandoEMRFS, el FileOutputCommitter algoritmo se ha actualizado para usar la versión 2 en lugar de la versión 1. Esto reduce el número de cambios de nombre, lo que mejora el rendimiento de la aplicación. Este cambio no afecta a:

      • Aplicaciones distintas de Spark.

      • Aplicaciones que escriben en otros sistemas de archivos, como HDFS (que aún utilizan la versión 1 de FileOutputCommitter).

      • Aplicaciones que utilizan otros formatos de salida, como texto o csv, que ya utilizan la escritura EMRFS directa.

Problemas conocidos
  • JupyterHub

    • No se admite el uso de clasificaciones de configuración para configurar JupyterHub libretas de Jupyter individuales al crear un clúster. Edite manualmente los archivos jupyterhub_config.py y jupyter_notebook_config.py para cada usuario. Para obtener más información, consulte Configurando JupyterHub.

    • JupyterHub no se inicia en los clústeres de una subred privada y se produce un error con el mensaje. Error: ENOENT: no such file or directory, open '/etc/jupyter/conf/server.crt' Esto es provocado por un error en el script que genera los certificados autofirmados. Utilice la siguiente solución alternativa para generar certificados autofirmados. Todos los comandos se ejecutan mientras está conectado al nodo principal.

      1. Copie el script de generación de certificados del contenedor al nodo principal:

        sudo docker cp jupyterhub:/tmp/gen_self_signed_cert.sh ./
      2. Utilice un editor de texto para cambiar la línea 23 y cambiar el nombre de host público por un nombre de host local, como se muestra a continuación:

        local hostname=$(curl -s $EC2_METADATA_SERVICE_URI/local-hostname)
      3. Ejecute el script para generar certificados autofirmados:

        sudo bash ./gen_self_signed_cert.sh
      4. Mueva los archivos de certificados que genera el script al directorio /etc/jupyter/conf/:

        sudo mv /tmp/server.crt /tmp/server.key /etc/jupyter/conf/

      Puedes revisar tail el jupyter.log archivo para comprobar que se ha JupyterHub reiniciado y que devuelve un código de respuesta de 200. Por ejemplo:

      tail -f /var/log/jupyter/jupyter.log

      Este debe devolver una respuesta similar a la siguiente:

      # [I 2018-06-14 18:56:51.356 JupyterHub app:1581] JupyterHub is now running at https://:9443/ # 19:01:51.359 - info: [ConfigProxy] 200 GET /api/routes
  • Una vez que se reinicie el nodo principal o se reinicie el controlador de instancias, no se recopilarán las CloudWatch métricas y la función de escalado automático no estará disponible en las EMR versiones 5.14.0, 5.15.0 o 5.16.0 de Amazon. Este problema se ha corregido en Amazon EMR 5.17.0.

Versiones de los componentes de la versión 5.14.0

Los componentes que Amazon EMR instala con esta versión se muestran a continuación. Algunos se instalan como parte de paquetes de aplicación de Big Data. Otros son exclusivos de Amazon EMR y se instalan para los procesos y funciones del sistema. Normalmente, estos componentes comienzan con emr o aws. Los paquetes de aplicaciones de macrodatos de la versión más reciente de Amazon EMR suelen ser la última versión que se encuentra en la comunidad. Hacemos que las publicaciones para la comunidad estén disponibles en Amazon lo antes EMR posible.

Algunos componentes de Amazon EMR difieren de las versiones comunitarias. Estos componentes tienen una etiqueta de versión con el formato CommunityVersion-amzn-EmrVersion. La EmrVersion empieza por 0. Por ejemplo, si el componente comunitario de código abierto denominado myapp-component en la versión 2.2 se ha modificado tres veces para incluirlo en diferentes EMR versiones de Amazon, su versión de lanzamiento aparece como2.2-amzn-2.

Componente Versión Descripción
aws-sagemaker-spark-sdk1.0.1Amazon SageMaker Spark SDK
emr-ddb4.5.0Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop.
emr-goodies2.4.0Bibliotecas especialmente prácticas para el ecosistema de Hadoop.
emr-kinesis3.4.0Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop.
emr-s3-dist-cp2.10.0Aplicación de copia distribuida optimizada para Amazon S3.
emrfs2.23.0Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop.
flink-client1.4.2Scripts y aplicaciones de cliente de línea de comando de Apache Flink.
ganglia-monitor3.7.2Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia.
ganglia-metadata-collector3.7.2Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia.
ganglia-web3.7.1Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia.
hadoop-client2.8.3-amzn-1Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode2.8.3-amzn-1HDFSservicio a nivel de nodo para almacenar bloques.
hadoop-hdfs-library2.8.3-amzn-1HDFSbiblioteca y cliente de línea de comandos
hadoop-hdfs-namenode2.8.3-amzn-1HDFSservicio para rastrear nombres de archivos y ubicaciones de bloques.
hadoop-httpfs-server2.8.3-amzn-1HTTPpunto final para HDFS las operaciones.
hadoop-kms-server2.8.3-amzn-1Servidor de administración de claves criptográficas basado en el de Hadoop. KeyProvider API
hadoop-mapred2.8.3-amzn-1MapReduce bibliotecas de motores de ejecución para ejecutar una aplicación. MapReduce
hadoop-yarn-nodemanager2.8.3-amzn-1YARNservicio para gestionar contenedores en un nodo individual.
hadoop-yarn-resourcemanager2.8.3-amzn-1YARNservicio para asignar y administrar los recursos del clúster y las aplicaciones distribuidas.
hadoop-yarn-timeline-server2.8.3-amzn-1Servicio de recuperación de información actual e histórica para YARN aplicaciones.
hbase-hmaster1.4.2Servicio para un HBase clúster responsable de la coordinación de las regiones y la ejecución de los comandos administrativos.
hbase-region-server1.4.2Servicio para prestar servicio a una o más HBase regiones.
hbase-client1.4.2HBasecliente de línea de comandos.
hbase-rest-server1.4.2Servicio que proporciona un RESTful HTTP punto final para. HBase
hbase-thrift-server1.4.2Servicio que proporciona un punto final de Thrift aHBase.
hcatalog-client2.3.2-amzn-2El cliente de línea de comando "hcat" para manipular hcatalog-server.
hcatalog-server2.3.2-amzn-2Prestación de serviciosHCatalog, una capa de administración de tablas y almacenamiento para aplicaciones distribuidas.
hcatalog-webhcat-server2.3.2-amzn-2HTTPpunto final que proporciona una REST interfaz paraHCatalog.
hive-client2.3.2-amzn-2Cliente de línea de comando de Hive.
hive-hbase2.3.2-amzn-2Hive-hbase client.
hive-metastore-server2.3.2-amzn-2Servicio para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL las operaciones de Hadoop.
hive-server22.3.2-amzn-2Servicio para aceptar consultas de Hive como solicitudes web.
hue-server4.1.0Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop
jupyterhub0.8.1Servidor multiusuario para blocs de notas Jupyter
livy-server0.4.0-incubatingRESTinterfaz para interactuar con Apache Spark
mahout-client0.13.0Biblioteca para machine learning.
mxnet1.1.0Una biblioteca flexible, escalable y eficiente para el aprendizaje profundo.
mysql-server5.5.54+Mi servidor SQL de base de datos.
nvidia-cuda9.1.85Controladores Nvidia y conjunto de herramientas Cuda
oozie-client4.3.0Cliente de línea de comando de Oozie.
oozie-server4.3.0Servicio para aceptar solicitudes de flujo de trabajo de Oozie.
opencv3.4.0Biblioteca de visión artificial de código abierto.
phoenix-library4.13.0- -1.4 HBaseLas bibliotecas de Phoenix para servidor y cliente
phoenix-query-server4.13.0- -1,4 HBaseUn servidor liviano que proporciona JDBC acceso, así como búferes de protocolo y acceso a JSON formatos al Avatica API
presto-coordinator0.194Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers.
presto-worker0.194Service para ejecutar partes de una consulta.
pig-client0.17.0Cliente de línea de comando de Pig.
r3.4.1Proyecto R para análisis estadístico
spark-client2.3.0Clientes de línea de comando de Spark.
spark-history-server2.3.0IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada.
spark-on-yarn2.3.0Motor de ejecución en memoria para. YARN
spark-yarn-slave2.3.0Bibliotecas Apache Spark que necesitan los YARN esclavos.
sqoop-client1.4.7Cliente de línea de comando de Apache Sqoop.
tez-on-yarn0.8.4La YARN aplicación y las bibliotecas de Tez.
webserver2.4.25+HTTPServidor Apache.
zeppelin-server0.7.3Bloc de notas basado en web que permite el análisis de datos interactivo.
zookeeper-server3.4.10Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo.
zookeeper-client3.4.10ZooKeeper cliente de línea de comandos.

Clasificaciones de configuración de la versión 5.14.0

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un XML archivo de configuración de la aplicación, comohive-site.xml. Para obtener más información, consulte Configuración de aplicaciones.

Clasificaciones de emr-5.14.0
Clasificaciones Descripción

capacity-scheduler

Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop.

container-log4j

Cambie los valores en el archivo container-log4j.properties YARN de Hadoop.

core-site

Cambiar los valores en el archivo core-site.xml de Hadoop.

emrfs-site

EMRFSCambia la configuración.

flink-conf

Cambiar la configuración de flink-conf.yaml.

flink-log4j

Cambiar la configuración de log4j.properties de Flink.

flink-log4j-yarn-session

Cambie la configuración de Flink log4 j-yarn-session .properties.

flink-log4j-cli

Cambiar la configuración de log4j-cli.properties de Flink.

hadoop-env

Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop.

hadoop-log4j

Cambiar los valores en el archivo log4j.properties de Hadoop.

hadoop-ssl-server

Cambiar la configuración del servidor ssl de Hadoop

hadoop-ssl-client

Cambiar la configuración del cliente ssl de Hadoop

hbase

EMRConfiguraciones seleccionadas por Amazon para ApacheHBase.

hbase-env

Cambie los valores en HBase su entorno.

hbase-log4j

Cambie los valores en el archivo HBase hbase-log4j.properties.

hbase-metrics

Cambie los valores en el archivo hadoop-metrics2-hbase.properties. HBase

hbase-policy

Cambie los valores en HBase el archivo hbase-policy.xml.

hbase-site

Cambie los valores en HBase el archivo hbase-site.xml.

hdfs-encryption-zones

Configure las zonas de HDFS cifrado.

hdfs-site

Cambie los valores en HDFS el archivo hdfs-site.xml.

hcatalog-env

Cambie los valores en HCatalog el entorno.

hcatalog-server-jndi

Cambie los valores en HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Cambie los valores en .xmlHCatalog. proto-hive-site

hcatalog-webhcat-env

Cambie los valores en el entorno ebHCat de HCatalog W.

hcatalog-webhcat-log4j2

Cambie los valores en el ebHCat log4j2.properties de HCatalog W.

hcatalog-webhcat-site

Cambie los valores en el archivo webhcat-site.xml HCatalog de W. ebHCat

hive-beeline-log4j2

Cambiar los valores en el archivo beeline-log4j2.properties de Hive.

hive-parquet-logging

Cambiar los valores en el archivo parquet-logging.properties de Hive.

hive-env

Cambiar los valores en el entorno de Hive.

hive-exec-log4j2

Cambie los valores en el archivo hive-exec-log 4j2.properties de Hive.

hive-llap-daemon-log4j2

Cambie los valores en el archivo 4j2.properties de Hive. llap-daemon-log

hive-log4j2

Cambiar los valores en el archivo hive-log4j2.properties de Hive.

hive-site

Cambiar los valores en el archivo hive-site.xml de Hive.

hiveserver2-site

Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2.

hue-ini

Cambiar los valores en el archivo ini de Hue

httpfs-env

Cambie los valores del entorno. HTTPFS

httpfs-site

Cambiar los valores en el archivo httpfs-site.xml de Hadoop.

hadoop-kms-acls

Cambiar los valores en el archivo kms-acls.xml de Hadoop.

hadoop-kms-env

Cambie los valores en el entorno de Hadoop. KMS

hadoop-kms-log4j

Cambiar los valores en el archivo kms-log4j.properties de Hadoop.

hadoop-kms-site

Cambiar los valores en el archivo kms-site.xml de Hadoop.

jupyter-notebook-conf

Cambiar los valores en el archivo jupyter_notebook_config.py de Jupyter Notebook.

jupyter-hub-conf

Cambie los valores en el JupyterHubs archivo jupyterhub_config.py.

jupyter-sparkmagic-conf

Cambiar los valores en el archivo config.json de Sparkmagic.

livy-conf

Cambiar los valores en el archivo livy.conf de Livy.

livy-env

Cambiar los valores en el entorno de Livy.

livy-log4j

Cambiar la configuración de log4j.properties de Livy.

mapred-env

Cambie los valores en el entorno de la MapReduce aplicación.

mapred-site

Cambie los valores en el archivo mapred-site.xml de la MapReduce aplicación.

oozie-env

Cambiar los valores en el entorno de Oozie.

oozie-log4j

Cambiar los valores en el archivo oozie-log4j.properties de Oozie.

oozie-site

Cambiar los valores en el archivo oozie-site.xml de Oozie.

phoenix-hbase-metrics

Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix.

phoenix-hbase-site

Cambiar los valores en el archivo hbase-site.xml de Phoenix.

phoenix-log4j

Cambiar los valores en el archivo log4j.properties de Phoenix.

phoenix-metrics

Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix.

pig-env

Cambiar los valores en el entorno de Pig.

pig-properties

Cambiar los valores en el archivo pig.properties de Pig.

pig-log4j

Cambiar los valores en el archivo log4j.properties de Pig.

presto-log

Cambiar los valores en el archivo log.properties de Presto.

presto-config

Cambiar los valores en el archivo config.properties de Presto.

presto-env

Cambiar valores en el archivo presto-env.sh de Presto.

presto-node

Cambiar valores en el archivo node.properties de Presto.

presto-connector-blackhole

Cambiar los valores en el archivo blackhole.properties de Presto.

presto-connector-cassandra

Cambiar los valores en el archivo cassandra.properties de Presto.

presto-connector-hive

Cambiar los valores en el archivo hive.properties de Presto.

presto-connector-jmx

Cambiar los valores en el archivo jmx.properties de Presto.

presto-connector-kafka

Cambiar los valores en el archivo kafka.properties de Presto.

presto-connector-localfile

Cambiar los valores en el archivo localfile.properties de Presto.

presto-connector-mongodb

Cambiar los valores en el archivo mongodb.properties de Presto.

presto-connector-mysql

Cambiar los valores en el archivo mysql.properties de Presto.

presto-connector-postgresql

Cambiar los valores en el archivo postgresql.properties de Presto.

presto-connector-raptor

Cambiar los valores en el archivo raptor.properties de Presto.

presto-connector-redis

Cambiar los valores en el archivo redis.properties de Presto.

presto-connector-redshift

Cambiar los valores en el archivo redshift.properties de Presto.

presto-connector-tpch

Cambiar los valores en el archivo tpch.properties de Presto.

spark

EMRConfiguraciones seleccionadas por Amazon para Apache Spark.

spark-defaults

Cambiar los valores en el archivo spark-defaults.conf de Spark.

spark-env

Cambiar los valores en el entorno de Spark.

spark-hive-site

Cambiar los valores en el archivo hive-site.xml de Spark.

spark-log4j

Cambiar los valores en el archivo log4j.properties de Spark.

spark-metrics

Cambiar los valores en el archivo metrics.properties de Spark.

sqoop-env

Cambiar los valores en el entorno de Sqoop.

sqoop-oraoop-site

Cambia los valores en el archivo oraoop-site.xml de Sqoop OraOop.

sqoop-site

Cambiar los valores en el archivo sqoop-site.xml de Sqoop.

tez-site

Cambiar los valores en el archivo tez-site.xml de Tez.

yarn-env

Cambie los valores del YARN entorno.

yarn-site

Cambie los valores en YARN el archivo yarn-site.xml.

zeppelin-env

Cambiar los valores en el entorno de Zeppelin.

zookeeper-config

Cambie los valores en ZooKeeper el archivo zoo.cfg.

zookeeper-log4j

Cambie los valores en el ZooKeeper archivo log4j.properties.