Amazon EMR, versión 5.5.0 - Amazon EMR

Amazon EMR, versión 5.5.0

Versiones de la aplicación

Esta versión admite las siguientes aplicaciones Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, Tez, Zeppelin y ZooKeeper.

En la siguiente tabla se enumeran las versiones de la aplicación disponibles en esta versión de Amazon EMR y las versiones de la aplicación en las tres versiones anteriores de Amazon EMR (cuando corresponda).

Para ver un historial completo de las versiones de la aplicación disponibles para cada versión de Amazon EMR, consulte los temas siguientes:

Información sobre la versión de la aplicación
emr-5.5.0 emr-5.4.1 emr-5.4.0 emr-5.3.2
AWS SDK para Java 1.10.751.10.751.10.751.10.75
Python No disponibleNo disponibleNo disponibleNo disponible
Scala No disponibleNo disponibleNo disponibleNo disponible
Delta - - - -
Flink1.2.01.2.01.2.01.1.4
Ganglia3.7.23.7.23.7.23.7.2
HBase1.3.01.3.01.3.01.2.3
HCatalog2.1.12.1.12.1.12.1.1
Hadoop2.7.32.7.32.7.32.7.3
Hive2.1.12.1.12.1.12.1.1
Hudi - - - -
Hue3.12.03.11.03.11.03.11.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub - - - -
Livy - - - -
MXNet - - - -
Mahout0.12.20.12.20.12.20.12.2
Oozie4.3.04.3.04.3.04.3.0
Phoenix4.9.04.9.04.9.04.7.0
Pig0.16.00.16.00.16.00.16.0
Presto0.1700.1660.1660.157.1
Spark2.1.02.1.02.1.02.1.0
Sqoop1.4.61.4.61.4.61.4.6
TensorFlow - - - -
Tez0.8.40.8.40.8.40.8.4
Trino (PrestoSQL) - - - -
Zeppelin0.7.10.7.00.7.00.6.2
ZooKeeper3.4.103.4.93.4.93.4.9

Notas de la versión

Las siguientes notas de la versión incluyen información sobre la versión 5.5.0 de Amazon EMR. Los cambios son respecto a la versión 5.4.0 de Amazon EMR.

Fecha de lanzamiento: 26 de abril de 2017

Actualizaciones
  • Hue 3.12

  • Presto 0.170

  • Zeppelin 0.7.1

  • ZooKeeper 3.4.10

Cambios, mejoras y problemas resueltos
  • Spark

  • Flink

    • Flink ahora se compila con Scala 2.11. Si utiliza las bibliotecas y la API de Scala, le recomendamos que utilice Scala 2.11 en sus proyectos.

    • Se ha resuelto un problema donde los valores predeterminados de HADOOP_CONF_DIR y YARN_CONF_DIR no se definían correctamente, por tanto no funcionaba start-scala-shell.sh. También se ha añadido la capacidad de definir estos valores utilizando env.hadoop.conf.dir y env.yarn.conf.dir en /etc/flink/conf/flink-conf.yaml o la clasificación de configuración flink-conf.

    • Se ha introducido un nuevo comando específico de EMR, flink-scala-shell como encapsulador para start-scala-shell.sh. Recomendamos utilizar este comando en lugar de start-scala-shell. El nuevo comando simplifica la ejecución. Por ejemplo, flink-scala-shell -n 2 inicia un shell Scala de Flink con un paralelismo de tareas de 2.

    • Se ha introducido un nuevo comando específico de EMR, flink-yarn-session como encapsulador para yarn-session.sh. Recomendamos utilizar este comando en lugar de yarn-session. El nuevo comando simplifica la ejecución. Por ejemplo, flink-yarn-session -d -n 2 inicia una sesión de Flink de ejecución prolongada en un estado desasociado con dos administradores de tareas.

    • Se ha corregido (FLINK-6125) Commons httpclient is not shaded anymore in Flink 1.2.

  • Presto

    • Se ha agregado compatibilidad para autenticación LDAP. El uso de LDAP con Presto en Amazon EMR requiere habilitar el acceso HTTPS para el coordinador de Presto (http-server.https.enabled=true en config.properties). Para conocer los detalles de configuración, consulte LDAP Authentication en la documentación de Presto.

    • Se agregó compatibilidad con SHOW GRANTS.

  • AMI base de Linux de Amazon EMR

    • Las versiones de Amazon EMR ahora se basan en Amazon Linux 2017.03. Para obtener más información, consulte las notas de la versión de Amazon Linux AMI 2017.03.

    • Se ha eliminado Python 2.6 de la imagen de Linux de base en Amazon EMR. Python 2.7 y 3.4 se instalan de forma predeterminada. Puede instalar Python 2.6 manualmente si es necesario.

Versiones de componentes

A continuación, se muestran los componentes que Amazon EMR instala con esta versión. Algunos se instalan como parte de paquetes de aplicación de Big Data. Otros son exclusivos de Amazon EMR y se instalan para ciertos procesos y características del sistema. Normalmente, estos componentes comienzan con emr o aws. Normalmente, los paquetes de aplicación de macrodatos de la versión más reciente de Amazon EMR son las versiones más recientes que pueden encontrarse en la comunidad. Intentamos que las versiones de la comunidad estén disponibles en Amazon EMR lo más rápido posible.

Algunos componentes de Amazon EMR son distintos de las versiones que se encuentran en la comunidad. Estos componentes tienen una etiqueta de versión con el formato CommunityVersion-amzn-EmrVersion. La EmrVersion empieza por 0. Por ejemplo, si un componente de la comunidad de código abierto llamado myapp-component con la versión 2.2 se ha modificado tres veces para incluirlo en diferentes versiones de lanzamiento de Amazon EMR, la versión que se mostrará será 2.2-amzn-2.

Componente Versión Descripción
emr-ddb4.3.0Conector de Amazon DynamoDB para aplicaciones del ecosistema de Hadoop.
emr-goodies2.3.0Bibliotecas especialmente prácticas para el ecosistema de Hadoop.
emr-kinesis3.3.0Conector de Amazon Kinesis para aplicaciones del ecosistema de Hadoop.
emr-s3-dist-cp2.5.0Aplicación de copia distribuida optimizada para Amazon S3.
emrfs2.16.0Conector de Amazon S3 para aplicaciones del ecosistema de Hadoop.
flink-client1.2.0Scripts y aplicaciones de cliente de línea de comando de Apache Flink.
ganglia-monitor3.7.2Agente de Ganglia incrustado para aplicaciones del ecosistema de Hadoop junto con el agente de monitorización de Ganglia.
ganglia-metadata-collector3.7.2Recopilador de metadatos de Ganglia para agregación de métricas a partir de los agentes de monitorización de Ganglia.
ganglia-web3.7.1Aplicación web para visualizar las métricas recopiladas por el recopilador de metadatos de Ganglia.
hadoop-client2.7.3-amzn-2Los clientes de línea de comando de Hadoop como, por ejemplo "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode2.7.3-amzn-2Servicio de nivel de nodos de HDFS para el almacenamiento de bloques.
hadoop-hdfs-library2.7.3-amzn-2Biblioteca y cliente de línea de comandos HDFS
hadoop-hdfs-namenode2.7.3-amzn-2Servicio de HDFS para realizar un seguimiento de nombres de archivo y bloquear ubicaciones.
hadoop-httpfs-server2.7.3-amzn-2Punto de enlace HTTP para operaciones HDFS.
hadoop-kms-server2.7.3-amzn-2Servidor de administración de claves criptográficas basado en el API KeyProvider de Hadoop.
hadoop-mapred2.7.3-amzn-2Bibliotecas de motor de ejecución de MapReduce para ejecutar una aplicación de MapReduce.
hadoop-yarn-nodemanager2.7.3-amzn-2Servicio de YARN para la administración de contenedores en un nodo individual.
hadoop-yarn-resourcemanager2.7.3-amzn-2Servicio de YARN para la asignación y administración de recursos de clúster y aplicaciones distribuidas.
hadoop-yarn-timeline-server2.7.3-amzn-2Servicio para recuperar información actual e histórica para aplicaciones de YARN.
hbase-hmaster1.3.0Servicio para un clúster de HBase responsable de la coordinación de regiones y ejecución de comandos administrativos.
hbase-region-server1.3.0Servicio que atiende a una o varias regiones de HBase.
hbase-client1.3.0Cliente de línea de comando de HBase.
hbase-rest-server1.3.0Servicio que proporciona un punto de enlace HTTP RESTful para HBase.
hbase-thrift-server1.3.0Service que proporciona un punto de enlace de Thrift a HBase.
hcatalog-client2.1.1-amzn-0El cliente de línea de comando "hcat" para manipular hcatalog-server.
hcatalog-server2.1.1-amzn-0Service que proporciona a HCatalog, una tabla y capa de administración de almacenamiento para aplicaciones distribuidas.
hcatalog-webhcat-server2.1.1-amzn-0Punto de enlace HTTP que proporciona una interfaz REST a HCatalog.
hive-client2.1.1-amzn-0Cliente de línea de comando de Hive.
hive-hbase2.1.1-amzn-0Hive-hbase client.
hive-metastore-server2.1.1-amzn-0Service para acceder al metaalmacén de Hive, un repositorio semántico que almacena metadatos para SQL en operaciones de Hadoop.
hive-server22.1.1-amzn-0Servicio para aceptar consultas de Hive como solicitudes web.
hue-server3.12.0Aplicación web para analizar datos con aplicaciones del ecosistema de Hadoop
mahout-client0.12.2Biblioteca para machine learning.
mysql-server5.5.54+Servidor de bases de datos MySQL.
oozie-client4.3.0Cliente de línea de comando de Oozie.
oozie-server4.3.0Servicio para aceptar solicitudes de flujo de trabajo de Oozie.
phoenix-library4.9.0-HBase-1.2Las bibliotecas de Phoenix para servidor y cliente
phoenix-query-server4.9.0-HBase-1.2Un servidor ligero que proporciona acceso a JDBC, así como acceso de formato Protocol Buffers y JSON al API de Avatica
presto-coordinator0.170Servicio para aceptar las consultas y administrar la ejecución de consultas entre presto-workers.
presto-worker0.170Service para ejecutar partes de una consulta.
pig-client0.16.0-amzn-0Cliente de línea de comando de Pig.
spark-client2.1.0Clientes de línea de comando de Spark.
spark-history-server2.1.0IU web para la visualización de eventos registrados durante la vida útil de una aplicación Spark completada.
spark-on-yarn2.1.0Motor de ejecución en memoria para YARN.
spark-yarn-slave2.1.0Bibliotecas de Apache Spark necesarias para esclavos de YARN.
sqoop-client1.4.6Cliente de línea de comando de Apache Sqoop.
tez-on-yarn0.8.4La aplicación YARN de tez y bibliotecas.
webserver2.4.25+Servidor HTTP de Apache.
zeppelin-server0.7.1Bloc de notas basado en web que permite el análisis de datos interactivo.
zookeeper-server3.4.10Servicio centralizado para mantener información de configuración, nomenclatura, proporcionar sincronización distribuida y proporcionar servicios de grupo.
zookeeper-client3.4.10Cliente de línea de comando de ZooKeeper.

Clasificaciones de configuración

Las clasificaciones de configuración le permiten personalizar las aplicaciones. Suelen corresponder a un archivo XML de configuración para la aplicación como, por ejemplo, hive-site.xml. Para obtener más información, consulte Configure aplicaciones.

Clasificaciones de emr-5.5.0
Clasificaciones Descripción

capacity-scheduler

Cambiar los valores en el archivo capacity-scheduler.xml de Hadoop.

core-site

Cambiar los valores en el archivo core-site.xml de Hadoop.

emrfs-site

Cambiar la configuración de EMRFS.

flink-conf

Cambiar la configuración de flink-conf.yaml.

flink-log4j

Cambiar la configuración de log4j.properties de Flink.

flink-log4j-yarn-session

Cambiar la configuración de log4j-yarn-session.properties de Flink.

flink-log4j-cli

Cambiar la configuración de log4j-cli.properties de Flink.

hadoop-env

Cambiar los valores en el entorno de Hadoop para todos los componentes de Hadoop.

hadoop-log4j

Cambiar los valores en el archivo log4j.properties de Hadoop.

hadoop-ssl-server

Cambiar la configuración del servidor ssl de Hadoop

hadoop-ssl-client

Cambiar la configuración del cliente ssl de Hadoop

hbase

Configuración de Amazon EMR mantenida para Apache HBase.

hbase-env

Cambiar los valores en el entorno de HBase.

hbase-log4j

Cambiar los valores en el archivo hbase-log4j.properties de HBase.

hbase-metrics

Cambiar los valores en el archivo hadoop-metrics2-hbaase.properties de HBase.

hbase-policy

Cambiar los valores en el archivo hbase-policy.xml de HBase.

hbase-site

Cambiar los valores en el archivo hbase-site.xml de HBase.

hdfs-encryption-zones

Configurar zonas de cifrado de HDFS.

hdfs-site

Cambiar los valores en hdfs-site.xml de HDFS.

hcatalog-env

Cambiar los valores en el entorno de HCatalog.

hcatalog-server-jndi

Cambiar los valores en jndi.properties de HCatalog.

hcatalog-server-proto-hive-site

Cambiar los valores en proto-hive-site.xml de HCatalog.

hcatalog-webhcat-env

Cambiar los valores en el entorno de HCatalog WebHCat.

hcatalog-webhcat-log4j2

Cambiar los valores en log4j2.properties de HCatalog WebHCat.

hcatalog-webhcat-site

Cambiar los valores en el archivo webhcat-site.xml de HCatalog WebHCat.

hive-beeline-log4j2

Cambiar los valores en el archivo beeline-log4j2.properties de Hive.

hive-parquet-logging

Cambiar los valores en el archivo parquet-logging.properties de Hive.

hive-env

Cambiar los valores en el entorno de Hive.

hive-exec-log4j2

Cambiar los valores en el archivo hive-exec-log4j2.properties de Hive.

hive-llap-daemon-log4j2

Cambiar los valores en el archivo llap-daemon-log4j2.properties de Hive.

hive-log4j2

Cambiar los valores en el archivo hive-log4j2.properties de Hive.

hive-site

Cambiar los valores en el archivo hive-site.xml de Hive.

hiveserver2-site

Cambiar los valores en el archivo hiveserver2-site.xml de Hive Server2.

hue-ini

Cambiar los valores en el archivo ini de Hue

httpfs-env

Cambiar los valores en el entorno de HTTPFS.

httpfs-site

Cambiar los valores en el archivo httpfs-site.xml de Hadoop.

hadoop-kms-acls

Cambiar los valores en el archivo kms-acls.xml de Hadoop.

hadoop-kms-env

Cambiar los valores en el entorno de Hadoop KMS.

hadoop-kms-log4j

Cambiar los valores en el archivo kms-log4j.properties de Hadoop.

hadoop-kms-site

Cambiar los valores en el archivo kms-site.xml de Hadoop.

mapred-env

Cambiar los valores en el entorno de aplicación de MapReduce.

mapred-site

Cambiar los valores en el archivo mapred-site.xml de la aplicación MapReduce.

oozie-env

Cambiar los valores en el entorno de Oozie.

oozie-log4j

Cambiar los valores en el archivo oozie-log4j.properties de Oozie.

oozie-site

Cambiar los valores en el archivo oozie-site.xml de Oozie.

phoenix-hbase-metrics

Cambiar los valores en el archivo hadoop-metrics2-hbase.properties de Phoenix.

phoenix-hbase-site

Cambiar los valores en el archivo hbase-site.xml de Phoenix.

phoenix-log4j

Cambiar los valores en el archivo log4j.properties de Phoenix.

phoenix-metrics

Cambiar los valores en el archivo hadoop-metrics2-phoenix.properties de Phoenix.

pig-properties

Cambiar los valores en el archivo pig.properties de Pig.

pig-log4j

Cambiar los valores en el archivo log4j.properties de Pig.

presto-log

Cambiar los valores en el archivo log.properties de Presto.

presto-config

Cambiar los valores en el archivo config.properties de Presto.

presto-connector-blackhole

Cambiar los valores en el archivo blackhole.properties de Presto.

presto-connector-cassandra

Cambiar los valores en el archivo cassandra.properties de Presto.

presto-connector-hive

Cambiar los valores en el archivo hive.properties de Presto.

presto-connector-jmx

Cambiar los valores en el archivo jmx.properties de Presto.

presto-connector-kafka

Cambiar los valores en el archivo kafka.properties de Presto.

presto-connector-localfile

Cambiar los valores en el archivo localfile.properties de Presto.

presto-connector-mongodb

Cambiar los valores en el archivo mongodb.properties de Presto.

presto-connector-mysql

Cambiar los valores en el archivo mysql.properties de Presto.

presto-connector-postgresql

Cambiar los valores en el archivo postgresql.properties de Presto.

presto-connector-raptor

Cambiar los valores en el archivo raptor.properties de Presto.

presto-connector-redis

Cambiar los valores en el archivo redis.properties de Presto.

presto-connector-tpch

Cambiar los valores en el archivo tpch.properties de Presto.

spark

Configuración de Amazon EMR mantenida para Apache Spark.

spark-defaults

Cambiar los valores en el archivo spark-defaults.conf de Spark.

spark-env

Cambiar los valores en el entorno de Spark.

spark-hive-site

Cambiar los valores en el archivo hive-site.xml de Spark.

spark-log4j

Cambiar los valores en el archivo log4j.properties de Spark.

spark-metrics

Cambiar los valores en el archivo metrics.properties de Spark.

sqoop-env

Cambiar los valores en el entorno de Sqoop.

sqoop-oraoop-site

Cambiar los valores en el archivo oraoop-site.xml de Sqoop OraOop.

sqoop-site

Cambiar los valores en el archivo sqoop-site.xml de Sqoop.

tez-site

Cambiar los valores en el archivo tez-site.xml de Tez.

yarn-env

Cambiar los valores en el entorno de YARN.

yarn-site

Cambiar los valores en el archivo yarn-site.xml de YARN.

zeppelin-env

Cambiar los valores en el entorno de Zeppelin.

zookeeper-config

Cambiar los valores del archivo zoo.cfg de ZooKeeper.

zookeeper-log4j

Cambiar los valores en el archivo log4j.properties de ZooKeeper.