Amazon EMR versão 5.26.0 - Amazon EMR

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Amazon EMR versão 5.26.0

Versões 5.26.0 da aplicação

Os seguintes aplicativos são compatíveis com esta versão: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin, e ZooKeeper.

A tabela abaixo lista as versões do aplicativo disponíveis nesta versão da Amazon EMR e as versões do aplicativo nas três EMR versões anteriores da Amazon (quando aplicável).

Para obter um histórico abrangente das versões do aplicativo para cada lançamento da AmazonEMR, consulte os seguintes tópicos:

Informações da versão da aplicação
emr-5.26.0 emr-5.25.0 emr-5.24.1 emr-5.24.0
AWS SDKpara Java 1.11.5951.11.5661.11.5461.11.546
Python 2,7, 3,62,7, 3,62,7, 3,62,7, 3,6
Scala 2.11.122.11.122.11.122.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.8.01.8.01.8.01.8.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.101.4.91.4.91.4.9
HCatalog2.3.52.3.52.3.42.3.4
Hadoop2.8.52.8.52.8.52.8.5
Hive2.3.52.3.52.3.42.3.4
Hudi - - - -
Hue4.4.04.4.04.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub0.9.60.9.60.9.60.9.6
Livy0.6.00.6.00.6.00.6.0
MXNet1.4.01.4.01.4.01.4.0
Mahout0.13.00.13.00.13.00.13.0
Oozie5.1.05.1.05.1.05.1.0
Phoenix4.14.24.14.14.14.14.14.1
Pig0.17.00.17.00.17.00.17.0
Presto0.2200.2200.2190.219
Spark2.4.32.4.32.4.22.4.2
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.13.11.13.11.12.01.12.0
Tez0.9.20.9.20.9.10.9.1
Trino (Em breve) SQL - - - -
Zeppelin0.8.10.8.10.8.10.8.1
ZooKeeper3.4.143.4.143.4.133.4.13

Notas da versão 5.26.0

As notas de lançamento a seguir incluem informações sobre a EMR versão 5.26.0 da Amazon. As alterações são referentes à versão 5.25.0.

Data da versão inicial: 8 de agosto de 2019

Data da última atualização: 19 de agosto de 2019

Atualizações
  • AWS SDK for Java 1.11.595

  • HBase1.4.10

  • Phoenix 4.14.2

  • Conectores e drivers:

    • Conector do DynamoDB 4.11.0

    • Conector do MariaDB 2.4.2

    • Driver Amazon Redshift 1.2.32.1056 JDBC

Novos atributos
  • (Beta) Com o Amazon EMR 5.26.0, você pode lançar um cluster que se integra ao Lake Formation. Essa integração fornece acesso refinado em nível de coluna a bancos de dados e tabelas no Glue Data Catalog. AWS Ele também permite o login único federado em EMR notebooks ou Apache Zeppelin a partir de um sistema de identidade corporativo. Para obter mais informações, consulte Integração da Amazon EMR com AWS Lake Formation (Beta).

  • (19 de agosto de 2019) O acesso público de EMR bloqueio da Amazon agora está disponível com todos os EMR lançamentos da Amazon que oferecem suporte a grupos de segurança. Bloquear o acesso público é uma configuração de toda a conta aplicada a cada AWS região. Bloquear o acesso público impede que um cluster seja iniciado quando qualquer grupo de segurança associado ao cluster tem uma regra que permite tráfego de entrada de IPv4 0.0.0.0/0 ouIPv6:: /0 (acesso público) em uma porta, a menos que uma porta seja especificada como uma exceção. A porta 22 é uma exceção por padrão. Para obter mais informações, consulte Usando o Amazon EMR Block Public Access no Amazon EMR Management Guide.

Alterações, melhorias e problemas resolvidos
  • EMRCadernos

    • Com a EMR versão 5.26.0 e versões posteriores, o EMR Notebooks oferece suporte a bibliotecas Python com escopo de notebook, além das bibliotecas Python padrão. Você pode instalar bibliotecas com escopo de caderno de dentro do editor de caderno sem precisar recriar um cluster ou reanexar um caderno a um cluster. As bibliotecas com escopo de caderno são criadas em um ambiente Python virtual para serem aplicadas somente à sessão de caderno atual. Isso permite isolar as dependências do caderno. Para obter mais informações, consulte Usando bibliotecas com escopo de notebook no Amazon EMR Management Guide.

  • EMRFS

    • Você pode ativar um recurso ETag de verificação (Beta) configurando fs.s3.consistent.metadata.etag.verification.enabled comotrue. Com esse recurso, EMRFS usa o Amazon S3 ETags para verificar se os objetos que estão sendo lidos são a versão mais recente disponível. Esse recurso é útil para casos de read-after-update uso em que os arquivos no Amazon S3 são sobrescritos, mantendo o mesmo nome. Atualmente, esse recurso de ETag verificação não funciona com o S3 Select. Para obter mais informações, consulte Configurar visualização consistente.

  • Spark

    • As seguintes otimizações agora estão habilitadas por padrão: remoção dinâmica de partições, DISTINCT antes, melhorias na inferência de estatísticas do SQL plano para consultas JOIN seguidasINTERSECT, nivelamento de DISTINCT subconsultas escalares, reordenamento otimizado de junções e junção com filtro bloom. Para obter mais informações, consulte Otimizar a performance do Spark.

    • Aprimorada a geração de código de estágio completo para Sort-Merge Join.

    • Aprimorado o fragmento de consulta e a reutilização de subconsultas.

    • Melhorias na pré-alocação de executores na inicialização do Spark.

    • As junções com filtro de Bloom não são mais aplicadas quando o lado menor da junção inclui uma dica de transmissão.

  • Tez

    • Resolvido um problema com o Tez. O Tez UI agora funciona em um EMR cluster da Amazon com vários nós primários.

Problemas conhecidos
  • Os recursos aprimorados de geração de código em todo o estágio de Sort Merge Join podem aumentar a pressão de memória quando habilitados. Essa otimização melhora a performance, mas pode resultar em novas tentativas ou falhas de trabalho se spark.yarn.executor.memoryOverheadFactor não for ajustado para fornecer memória suficiente. Para desabilitar esse atributo, defina spark.sql.sortMergeJoinExec.extendedCodegen.enabled como falso.

  • Problema conhecido em clusters com vários nós primários e autenticação Kerberos

    Se você executar clusters com vários nós primários e autenticação Kerberos nas EMR versões 5.20.0 e posteriores da Amazon, poderá encontrar problemas com operações de cluster, como redução de escala ou envio de etapas, depois que o cluster estiver em execução por algum tempo. O período depende do período de validade do tíquete do Kerberos que você definiu. O problema de redução da escala verticalmente afeta tanto as solicitações de redução automática quanto as de reduções explícitas que você enviou. Operações adicionais de cluster também podem ser afetadas.

    Solução:

    • SSHcomo hadoop usuário do nó primário principal do EMR cluster com vários nós primários.

    • Execute o comando a seguir para renovar o tíquete do Kerberos para o usuário do hadoop.

      kinit -kt <keytab_file> <principal>

      Normalmente, o arquivo keytab está localizado em /etc/hadoop.keytab e a entidade principal está na forma de hadoop/<hostname>@<REALM>.

    nota

    Essa solução alternativa entrará em vigor durante o período de validade do tíquete do Kerberos. Essa duração é de 10 horas por padrão, mas pode ser configurada pelas definições do Kerberos. Você deve executar novamente o comando acima quando o tíquete do Kerberos expirar.

Versões de componente 5.26.0

Os componentes que a Amazon EMR instala com esta versão estão listados abaixo. Alguns são instalados como parte de pacotes de aplicativos de big data. Outros são exclusivos da Amazon EMR e são instalados para processos e recursos do sistema. Eles normalmente começam com emr ou aws. Os pacotes de aplicativos de big data na versão mais recente da Amazon EMR geralmente são a versão mais recente encontrada na comunidade. Disponibilizamos lançamentos comunitários na Amazon o mais EMR rápido possível.

Alguns componentes na Amazon EMR diferem das versões da comunidade. Esses componentes tem um rótulo de versão no formulário CommunityVersion-amzn-EmrVersion. O EmrVersion começa em 0. Por exemplo, se um componente de comunidade de código aberto nomeado myapp-component com a versão 2.2 tiver sido modificado três vezes para inclusão em diferentes EMR versões da Amazon, sua versão de lançamento será listada como2.2-amzn-2.

Componente Version (Versão) Descrição
aws-sagemaker-spark-sdk1.2.4Amazon SageMaker Spark SDK
emr-ddb4.11.0O conector do Amazon DynamoDB para aplicativos do ecossistema do Hadoop.
emr-goodies2.10.0Bibliotecas convenientes para o ecossistema do Hadoop.
emr-kinesis3.4.0O conector do Amazon Kinesis para aplicativos do ecossistema do Hadoop.
emr-s3-dist-cp2.12.0Cópia distribuída otimizada de aplicativos para o Amazon S3.
emr-s3-select1.3.0EMRConector S3Select
emrfs2.35.0O conector do Amazon S3 para aplicações do ecossistema do Hadoop.
flink-client1.8.0Scripts do cliente da linha de comando e aplicativos do Apache Flink.
ganglia-monitor3.7.2O agente incorporado do Ganglia para aplicativos do ecossistema do Hadoop, juntamente com o agente de monitoramento do Ganglia.
ganglia-metadata-collector3.7.2O coletor de metadados do Ganglia para agregar métricas de agentes de monitoramento do Ganglia.
ganglia-web3.7.1O aplicativo web para visualizar as métricas coletadas pelo coletor de metadados do Ganglia.
hadoop-client2.8.5-amzn-4Clientes da linha de comando do Hadoop, como 'hdfs', 'hadoop', ou 'yarn'.
hadoop-hdfs-datanode2.8.5-amzn-4HDFSserviço em nível de nó para armazenar blocos.
hadoop-hdfs-library2.8.5-amzn-4HDFScliente e biblioteca de linha de comando
hadoop-hdfs-namenode2.8.5-amzn-4HDFSserviço para rastrear nomes de arquivos e localizações de blocos.
hadoop-hdfs-journalnode2.8.5-amzn-4HDFSserviço para gerenciar o diário do sistema de arquivos Hadoop em clusters HA.
hadoop-httpfs-server2.8.5-amzn-4HTTPendpoint para HDFS operações.
hadoop-kms-server2.8.5-amzn-4Servidor de gerenciamento de chaves criptográficas baseado no Hadoop. KeyProvider API
hadoop-mapred2.8.5-amzn-4MapReduce bibliotecas de mecanismos de execução para executar um MapReduce aplicativo.
hadoop-yarn-nodemanager2.8.5-amzn-4YARNserviço para gerenciar contêineres em um nó individual.
hadoop-yarn-resourcemanager2.8.5-amzn-4YARNserviço para alocar e gerenciar recursos de cluster e aplicativos distribuídos.
hadoop-yarn-timeline-server2.8.5-amzn-4Serviço para recuperar informações atuais e históricas para YARN aplicativos.
hbase-hmaster1.4.10Serviço para um HBase cluster responsável pela coordenação das regiões e execução de comandos administrativos.
hbase-region-server1.4.10Serviço para atender a uma ou mais HBase regiões.
hbase-client1.4.10HBasecliente de linha de comando.
hbase-rest-server1.4.10Serviço que fornece um RESTful HTTP endpoint paraHBase.
hbase-thrift-server1.4.10Serviço que fornece um endpoint Thrift para. HBase
hcatalog-client2.3.5-amzn-0O cliente da linha de comando 'hcat' para manipular o hcatalog-server.
hcatalog-server2.3.5-amzn-0Fornecimento de serviçosHCatalog, uma camada de gerenciamento de tabelas e armazenamento para aplicativos distribuídos.
hcatalog-webhcat-server2.3.5-amzn-0HTTPendpoint fornecendo uma REST interface paraHCatalog.
hive-client2.3.5-amzn-0O cliente da linha de comando do Hive.
hive-hbase2.3.5-amzn-0Cliente do Hive-hbase.
hive-metastore-server2.3.5-amzn-0Serviço para acessar o metastore Hive, um repositório semântico que armazena metadados para operações no Hadoop. SQL
hive-server22.3.5-amzn-0O serviço que aceita as consultas do Hive como solicitações da web.
hue-server4.4.0O aplicativo web para analisar dados usando aplicativos do ecossistema do Hadoop
jupyterhub0.9.6Servidor de vários usuários para blocos de anotações Jupyter
livy-server0.6.0-incubatingRESTinterface para interagir com o Apache Spark
nginx1.12.1nginx [engine x] é HTTP um servidor proxy reverso
mahout-client0.13.0A biblioteca de Machine Learning.
mxnet1.4.0Uma biblioteca flexível, escalável e eficiente para aprendizado aprofundado.
mysql-server5.5.54+Meu servidor SQL de banco de dados.
nvidia-cuda9.2.88Drivers NVIDIA e toolkit CUDA
oozie-client5.1.0O cliente da linha de comando do Oozie.
oozie-server5.1.0O serviço que aceita solicitações de fluxo de trabalho do Oozie.
opencv3.4.0Biblioteca de Visão Computacional de Código Aberto.
phoenix-library4.14.2- -1,4 HBaseAs bibliotecas do phoenix para servidor e cliente
phoenix-query-server4.14.2- -1,4 HBaseUm servidor leve que fornece JDBC acesso, buffers de protocolo e acesso ao JSON formato do Avatica API
presto-coordinator0.220O serviço que aceita consultas e gerencia a execução de consultas entre os presto-workers.
presto-worker0.220O serviço que executa partes de uma consulta.
pig-client0.17.0O cliente da linha de comando do Pig.
r3.4.1O projeto R para computação estatística
spark-client2.4.3Os clientes da linha de comando do Spark.
spark-history-server2.4.3A interface de usuário da web para visualizar os eventos registrados por toda a vida útil de um aplicativo Spark concluído.
spark-on-yarn2.4.3Mecanismo de execução na memória paraYARN.
spark-yarn-slave2.4.3Bibliotecas do Apache Spark necessárias para escravos. YARN
sqoop-client1.4.7O cliente da linha de comando do Apache Sqoop.
tensorflow1.13.1TensorFlow biblioteca de software de código aberto para computação numérica de alto desempenho.
tez-on-yarn0.9.2O YARN aplicativo e as bibliotecas tez.
webserver2.4.25+HTTPServidor Apache.
zeppelin-server0.8.1O notebook baseado na web que permite a análise de dados interativa.
zookeeper-server3.4.14O serviço centralizado de manutenção de informações de configuração, nomenclatura, fornecimento de sincronização distribuída, e fornecimento de serviços de grupo.
zookeeper-client3.4.14ZooKeeper cliente de linha de comando.

Classificações de configuração 5.26.0

As classificações de configuração permitem que você personalize aplicações. Eles geralmente correspondem a um XML arquivo de configuração do aplicativo, comohive-site.xml. Para obter mais informações, consulte Configurar aplicações.

Classificações do emr-5.26.0
Classificações Descrição

capacity-scheduler

Alterar os valores no arquivo capacity-scheduler.xml do Hadoop.

container-log4j

Altere os valores no arquivo container-log4j.properties YARN do Hadoop.

core-site

Alterar os valores no arquivo core-site.xml do Hadoop.

emrfs-site

Altere EMRFS as configurações.

flink-conf

Alterar as configurações do flink-conf.yaml.

flink-log4j

Alterar as configurações de log4j.properties no Flink.

flink-log4j-yarn-session

Altere as configurações do Flink log4 j-yarn-session .properties.

flink-log4j-cli

Alterar as configurações de log4j-cli.properties no Flink.

hadoop-env

Alterar os valores no ambiente do Hadoop para todos os componentes do Hadoop.

hadoop-log4j

Alterar os valores no arquivo log4j.properties do Hadoop.

hadoop-ssl-server

Alterar a configuração do servidor SSL no Hadoop

hadoop-ssl-client

Alterar a configuração do cliente SSL no Hadoop

hbase

Configurações EMR selecionadas pela Amazon para Apache. HBase

hbase-env

Mude os valores no HBase ambiente.

hbase-log4j

Altere os valores no arquivo HBase hbase-log4j.properties.

hbase-metrics

Altere os valores no arquivo HBase hadoop-metrics2-hbase.properties do.

hbase-policy

Altere os valores no HBase arquivo hbase-policy.xml do.

hbase-site

Altere os valores no HBase arquivo hbase-site.xml do.

hdfs-encryption-zones

Configure zonas de HDFS criptografia.

hdfs-site

Altere os valores no HDFS hdfs-site.xml.

hcatalog-env

Mude os valores no HCatalog ambiente.

hcatalog-server-jndi

Altere os valores em HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Altere os valores em HCatalog proto-hive-site .xml.

hcatalog-webhcat-env

Altere os valores no ambiente ebHCat de HCatalog W.

hcatalog-webhcat-log4j2

Altere os valores nas propriedades ebHCat log4j2.properties de HCatalog W.

hcatalog-webhcat-site

Altere os valores no arquivo webhcat-site.xml de HCatalog W. ebHCat

hive-beeline-log4j2

Alterar os valores no arquivo beeline-log4j2.properties do Hive.

hive-parquet-logging

Alterar os valores no arquivo parquet-logging.properties do Hive.

hive-env

Alterar os valores no ambiente do Hive.

hive-exec-log4j2

Altere os valores no arquivo hive-exec-log 4j2.properties do Hive.

hive-llap-daemon-log4j2

Altere os valores no arquivo llap-daemon-log 4j2.properties do Hive.

hive-log4j2

Alterar os valores no arquivo hive-log4j2.properties do Hive.

hive-site

Alterar os valores no arquivo hive-site.xml do Hive.

hiveserver2-site

Alterar os valores no arquivo hiveserver2-site.xml do Hive Server2.

hue-ini

Alterar os valores no arquivo ini do Hue

httpfs-env

Mude os valores no HTTPFS ambiente.

httpfs-site

Alterar os valores no arquivo httpfs-site.xml do Hadoop.

hadoop-kms-acls

Alterar os valores no arquivo kms-acls.xml do Hadoop.

hadoop-kms-env

Altere os valores no ambiente HadoopKMS.

hadoop-kms-log4j

Alterar os valores no arquivo kms-log4j.properties do Hadoop.

hadoop-kms-site

Alterar os valores no arquivo kms-site.xml do Hadoop.

jupyter-notebook-conf

Alterar os valores no arquivo jupyter_notebook_config.py do Notebook Jupyter.

jupyter-hub-conf

Altere os valores no JupyterHubs arquivo jupyterhub_config.py do.

jupyter-s3-conf

Configurar a persistência do notebook Jupyter S3.

jupyter-sparkmagic-conf

Altere os valores no arquivo config.json do Sparkmagic.

livy-conf

Alterar os valores no arquivo livy.conf do Livy.

livy-env

Alterar os valores no ambiente do Livy.

livy-log4j

Alterar as configurações de log4j.properties no Livy.

mapred-env

Altere os valores no ambiente do MapReduce aplicativo.

mapred-site

Altere os valores no arquivo mapred-site.xml do MapReduce aplicativo.

oozie-env

Alterar os valores no ambiente do Oozie.

oozie-log4j

Alterar os valores no arquivo oozie-log4j.properties do Oozie.

oozie-site

Alterar os valores no arquivo oozie-site.xml do Oozie.

phoenix-hbase-metrics

Alterar os valores no arquivo hadoop-metrics2-hbase.properties do Phoenix.

phoenix-hbase-site

Alterar os valores no arquivo hbase-site.xml do Phoenix.

phoenix-log4j

Alterar os valores no arquivo log4j.properties do Phoenix.

phoenix-metrics

Alterar os valores no arquivo hadoop-metrics2-phoenix.properties do Phoenix.

pig-env

Alterar os valores no ambiente do Pig.

pig-properties

Alterar os valores no arquivo pig.properties do Pig.

pig-log4j

Alterar os valores no arquivo log4j.properties do Pig.

presto-log

Alterar os valores no arquivo log.properties do Presto.

presto-config

Alterar os valores no arquivo config.properties do Presto.

presto-password-authenticator

Altere os valores no arquivo password-authenticator.properties do Presto.

presto-env

Altere os valores no arquivo presto-env.sh do Presto.

presto-node

Altere os valores no arquivo node.properties do Presto.

presto-connector-blackhole

Alterar os valores no arquivo blackhole.properties do Presto.

presto-connector-cassandra

Alterar os valores no arquivo cassandra.properties do Presto.

presto-connector-hive

Alterar os valores no arquivo hive.properties do Presto.

presto-connector-jmx

Alterar os valores no arquivo jmx.properties do Presto.

presto-connector-kafka

Alterar os valores no arquivo kafka.properties do Presto.

presto-connector-localfile

Alterar os valores no arquivo localfile.properties do Presto.

presto-connector-memory

Alterar os valores no arquivo memory.properties do Presto.

presto-connector-mongodb

Alterar os valores no arquivo mongodb.properties do Presto.

presto-connector-mysql

Alterar os valores no arquivo mysql.properties do Presto.

presto-connector-postgresql

Alterar os valores no arquivo postgresql.properties do Presto.

presto-connector-raptor

Alterar os valores no arquivo raptor.properties do Presto.

presto-connector-redis

Alterar os valores no arquivo redis.properties do Presto.

presto-connector-redshift

Alterar os valores no arquivo de propriedades redshift do Presto.

presto-connector-tpch

Alterar os valores no arquivo tpch.properties do Presto.

presto-connector-tpcds

Alterar os valores no arquivo tpcds.properties do Presto.

recordserver-env

Mude os valores no EMR RecordServer ambiente.

recordserver-conf

Altere os valores no arquivo EMR RecordServer erver.properties do.

recordserver-log4j

Altere os valores no EMR RecordServer arquivo log4j.properties.

spark

Configurações EMR selecionadas pela Amazon para o Apache Spark.

spark-defaults

Alterar os valores no arquivo spark-defaults.conf do Spark.

spark-env

Alterar os valores no ambiente do Spark.

spark-hive-site

Alterar os valores no arquivo hive-site.xml do Spark.

spark-log4j

Alterar os valores no arquivo log4j.properties do Spark.

spark-metrics

Alterar os valores no arquivo metrics.properties do Spark.

sqoop-env

Alterar os valores no ambiente do Sqoop.

sqoop-oraoop-site

Altere os valores no arquivo oraoop-site.xml OraOop do Sqoop.

sqoop-site

Alterar os valores no arquivo sqoop-site.xml do Sqoop.

tez-site

Alterar os valores no arquivo tez-site.xml do Tez.

yarn-env

Mude os valores no YARN ambiente.

yarn-site

Altere os valores no YARN arquivo yarn-site.xml do.

zeppelin-env

Alterar os valores no ambiente do Zeppelin.

zookeeper-config

Altere os valores no ZooKeeper arquivo zoo.cfg do.

zookeeper-log4j

Altere os valores no ZooKeeper arquivo log4j.properties.