Amazon EMR versão 5.10.0 - Amazon EMR

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Amazon EMR versão 5.10.0

Versões 5.10.0 da aplicação

As seguintes aplicações são compatíveis com esta versão: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, Tez, Zeppelin e ZooKeeper.

A tabela abaixo lista as versões do aplicativo disponíveis nesta versão da Amazon EMR e as versões do aplicativo nas três EMR versões anteriores da Amazon (quando aplicável).

Para obter um histórico abrangente das versões do aplicativo para cada lançamento da AmazonEMR, consulte os seguintes tópicos:

Informações da versão da aplicação
emr-5.10.0 emr-5.9.1 emr-5.9.0 emr-5.8.3
AWS SDK para Java 1.11.2211.11.1831.11.1831.11.160
Python 2,7, 3,4Não rastreadasNão rastreadasNão rastreadas
Scala 2.11.82.11.82.11.82.11.8
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.3.21.3.21.3.21.3.1
Ganglia3.7.23.7.23.7.23.7.2
HBase1.3.11.3.11.3.11.3.1
HCatalog2.3.12.3.02.3.02.3.0
Hadoop2.7.32.7.32.7.32.7.3
Hive2.3.12.3.02.3.02.3.0
Hudi - - - -
Hue4.0.14.0.14.0.13.12.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub - - - -
Livy0.4.00.4.00.4.0 -
MXNet0.12.0 - - -
Mahout0.13.00.13.00.13.00.13.0
Oozie4.3.04.3.04.3.04.3.0
Phoenix4.11.04.11.04.11.04.11.0
Pig0.17.00.17.00.17.00.16.0
Presto0.1870.1840.1840.170
Spark2.2.02.2.02.2.02.2.0
Sqoop1.4.61.4.61.4.61.4.6
TensorFlow - - - -
Tez0.8.40.8.40.8.40.8.4
Trino (PrestoSQL) - - - -
Zeppelin0.7.30.7.20.7.20.7.2
ZooKeeper3.4.103.4.103.4.103.4.10

Notas da versão 5.10.0

As notas de lançamento a seguir incluem informações para a EMR versão 5.10.0 da Amazon. As alterações são relativas à EMR versão 5.9.0 da Amazon.

Atualizações
  • AWS SDK for Java 1.11.21

  • Hive 2.3.1

  • Presto 0.187

Novos atributos
Alterações, melhorias e problemas resolvidos
  • Presto

  • Spark

    • Backported SPARK-20640, que torna o tempo limite do rpc e as novas tentativas de valores de registro aleatório configuráveis, usando e propriedades. spark.shuffle.registration.timeout spark.shuffle.registration.maxAttempts

    • Backported SPARK-21549, que corrige um erro que ocorre ao gravar de forma personalizada OutputFormat em locais diferentes. HDFS

  • Backport Hadoop-13270

  • As bibliotecas Numpy, Scipy e Matplotlib foram removidas da Amazon base. EMR AMI Se forem necessárias para o aplicativo, essas bibliotecas estarão disponíveis no repositório do aplicativo. Portanto, você pode usar uma ação de bootstrap para instalá-las em todos os nós usando yum install.

  • A EMR base da Amazon AMI não tem mais RPM pacotes de aplicativos incluídos, então os RPM pacotes não estão mais presentes nos nós do cluster. A Custom AMIs e a EMR base da Amazon AMI agora fazem referência ao repositório de RPM pacotes no Amazon S3.

  • Devido à introdução do faturamento por segundo na AmazonEC2, o comportamento padrão de redução de escala agora é Encerrar na conclusão da tarefa, em vez de Encerrar na hora da instância. Para obter mais informações, consulte Configure Cluster Scale-Down (Configurar escalabilidade vertical do cluster).

Problemas conhecidos
  • MXNetnão inclui bibliotecas OpenCV.

  • Por padrão, o Hive 2.3.1 define hive.compute.query.using.stats=true. Isso faz com que as consultas obtenham dados de estatísticas existentes em vez de diretamente dos dados, o que pode gerar confusão. Por exemplo, se você tiver uma tabela com hive.compute.query.using.stats=true e fizer upload de novos arquivos para a tabela LOCATION, a execução de uma consulta SELECT COUNT(*) na tabela retornará a contagem das estatísticas, e não selecionará as linhas adicionadas.

    Como alternativa, use o comando ANALYZE TABLE para reunir novas estatísticas ou defina hive.compute.query.using.stats=false. Para obter mais informações, consulte Estatísticas no Hive na documentação do Apache Hive.

Versões de componente 5.10.0

Os componentes que a Amazon EMR instala com esta versão estão listados abaixo. Alguns são instalados como parte de pacotes de aplicativos de big data. Outros são exclusivos da Amazon EMR e são instalados para processos e recursos do sistema. Eles normalmente começam com emr ou aws. Os pacotes de aplicativos de big data na versão mais recente da Amazon EMR geralmente são a versão mais recente encontrada na comunidade. Disponibilizamos lançamentos comunitários na Amazon o mais EMR rápido possível.

Alguns componentes na Amazon EMR são diferentes das versões da comunidade. Esses componentes tem um rótulo de versão no formulário CommunityVersion-amzn-EmrVersion. O EmrVersion começa em 0. Por exemplo, se um componente de comunidade de código aberto nomeado myapp-component com a versão 2.2 tiver sido modificado três vezes para inclusão em diferentes EMR versões da Amazon, sua versão de lançamento será listada como2.2-amzn-2.

Componente Version (Versão) Descrição
emr-ddb4.5.0O conector do Amazon DynamoDB para aplicativos do ecossistema do Hadoop.
emr-goodies2.4.0Bibliotecas convenientes para o ecossistema do Hadoop.
emr-kinesis3.4.0O conector do Amazon Kinesis para aplicativos do ecossistema do Hadoop.
emr-s3-dist-cp2.7.0Cópia distribuída otimizada de aplicativos para o Amazon S3.
emrfs2.20.0O conector do Amazon S3 para aplicações do ecossistema do Hadoop.
flink-client1.3.2Scripts do cliente da linha de comando e aplicativos do Apache Flink.
ganglia-monitor3.7.2O agente incorporado do Ganglia para aplicativos do ecossistema do Hadoop, juntamente com o agente de monitoramento do Ganglia.
ganglia-metadata-collector3.7.2O coletor de metadados do Ganglia para agregar métricas de agentes de monitoramento do Ganglia.
ganglia-web3.7.1O aplicativo web para visualizar as métricas coletadas pelo coletor de metadados do Ganglia.
hadoop-client2.7.3-amzn-5Clientes da linha de comando do Hadoop, como 'hdfs', 'hadoop', ou 'yarn'.
hadoop-hdfs-datanode2.7.3-amzn-5HDFSserviço em nível de nó para armazenar blocos.
hadoop-hdfs-library2.7.3-amzn-5HDFScliente e biblioteca de linha de comando
hadoop-hdfs-namenode2.7.3-amzn-5HDFSserviço para rastrear nomes de arquivos e localizações de blocos.
hadoop-httpfs-server2.7.3-amzn-5HTTPendpoint para HDFS operações.
hadoop-kms-server2.7.3-amzn-5Servidor de gerenciamento de chaves criptográficas baseado no Hadoop. KeyProvider API
hadoop-mapred2.7.3-amzn-5MapReduce bibliotecas de mecanismos de execução para executar um MapReduce aplicativo.
hadoop-yarn-nodemanager2.7.3-amzn-5YARNserviço para gerenciar contêineres em um nó individual.
hadoop-yarn-resourcemanager2.7.3-amzn-5YARNserviço para alocar e gerenciar recursos de cluster e aplicativos distribuídos.
hadoop-yarn-timeline-server2.7.3-amzn-5Serviço para recuperar informações atuais e históricas para YARN aplicativos.
hbase-hmaster1.3.1Serviço para um HBase cluster responsável pela coordenação das regiões e execução de comandos administrativos.
hbase-region-server1.3.1Serviço para atender uma ou mais HBase regiões.
hbase-client1.3.1HBasecliente de linha de comando.
hbase-rest-server1.3.1Serviço que fornece um RESTful HTTP endpoint paraHBase.
hbase-thrift-server1.3.1Serviço que fornece um endpoint Thrift para. HBase
hcatalog-client2.3.1-amzn-0O cliente da linha de comando 'hcat' para manipular o hcatalog-server.
hcatalog-server2.3.1-amzn-0Fornecimento de serviçosHCatalog, uma camada de gerenciamento de tabelas e armazenamento para aplicativos distribuídos.
hcatalog-webhcat-server2.3.1-amzn-0HTTPendpoint fornecendo uma REST interface paraHCatalog.
hive-client2.3.1-amzn-0O cliente da linha de comando do Hive.
hive-hbase2.3.1-amzn-0Cliente do Hive-hbase.
hive-metastore-server2.3.1-amzn-0Serviço para acessar o metastore Hive, um repositório semântico que armazena metadados para operações no Hadoop. SQL
hive-server22.3.1-amzn-0O serviço que aceita as consultas do Hive como solicitações da web.
hue-server4.0.1O aplicativo web para analisar dados usando aplicativos do ecossistema do Hadoop
livy-server0.4.0-incubatingRESTinterface para interagir com o Apache Spark
mahout-client0.13.0A biblioteca de Machine Learning.
mxnet0.12.0Uma biblioteca flexível, escalável e eficiente para aprendizado aprofundado.
mysql-server5.5.54+Meu servidor SQL de banco de dados.
nvidia-cuda9.0.176Drivers NVIDIA e toolkit CUDA
oozie-client4.3.0O cliente da linha de comando do Oozie.
oozie-server4.3.0O serviço que aceita solicitações de fluxo de trabalho do Oozie.
phoenix-library4.11.0- -1.3 HBaseAs bibliotecas do phoenix para servidor e cliente
phoenix-query-server4.11.0- -1.3 HBaseUm servidor leve que fornece JDBC acesso, buffers de protocolo e acesso ao JSON formato do Avatica API
presto-coordinator0.187O serviço que aceita consultas e gerencia a execução de consultas entre os presto-workers.
presto-worker0.187O serviço que executa partes de uma consulta.
pig-client0.17.0O cliente da linha de comando do Pig.
spark-client2.2.0Os clientes da linha de comando do Spark.
spark-history-server2.2.0A interface de usuário da web para visualizar os eventos registrados por toda a vida útil de um aplicativo Spark concluído.
spark-on-yarn2.2.0Mecanismo de execução na memória paraYARN.
spark-yarn-slave2.2.0Bibliotecas do Apache Spark necessárias para escravos. YARN
sqoop-client1.4.6O cliente da linha de comando do Apache Sqoop.
tez-on-yarn0.8.4O YARN aplicativo e as bibliotecas tez.
webserver2.4.25+HTTPServidor Apache.
zeppelin-server0.7.3O notebook baseado na web que permite a análise de dados interativa.
zookeeper-server3.4.10O serviço centralizado de manutenção de informações de configuração, nomenclatura, fornecimento de sincronização distribuída, e fornecimento de serviços de grupo.
zookeeper-client3.4.10ZooKeeper cliente de linha de comando.

Classificações de configuração 5.10.0

As classificações de configuração permitem que você personalize aplicações. Eles geralmente correspondem a um XML arquivo de configuração do aplicativo, comohive-site.xml. Para ter mais informações, consulte Configurar aplicações.

Classificações do emr-5.10.0
Classificações Descrição

capacity-scheduler

Alterar os valores no arquivo capacity-scheduler.xml do Hadoop.

core-site

Alterar os valores no arquivo core-site.xml do Hadoop.

emrfs-site

Altere EMRFS as configurações.

flink-conf

Alterar as configurações do flink-conf.yaml.

flink-log4j

Alterar as configurações de log4j.properties no Flink.

flink-log4j-yarn-session

Altere as configurações do Flink log4 j-yarn-session .properties.

flink-log4j-cli

Alterar as configurações de log4j-cli.properties no Flink.

hadoop-env

Alterar os valores no ambiente do Hadoop para todos os componentes do Hadoop.

hadoop-log4j

Alterar os valores no arquivo log4j.properties do Hadoop.

hadoop-ssl-server

Alterar a configuração do servidor SSL no Hadoop

hadoop-ssl-client

Alterar a configuração do cliente SSL no Hadoop

hbase

Configurações EMR selecionadas pela Amazon para Apache. HBase

hbase-env

Mude os valores no HBase ambiente.

hbase-log4j

Altere os valores no arquivo HBase hbase-log4j.properties.

hbase-metrics

Altere os valores no arquivo HBase hadoop-metrics2-hbase.properties do.

hbase-policy

Altere os valores no HBase arquivo hbase-policy.xml do.

hbase-site

Altere os valores no HBase arquivo hbase-site.xml do.

hdfs-encryption-zones

Configure as zonas de HDFS criptografia.

hdfs-site

Altere os valores em HDFS's hdfs-site.xml.

hcatalog-env

Mude os valores no HCatalog ambiente.

hcatalog-server-jndi

Altere os valores em HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Altere os valores em HCatalog proto-hive-site .xml.

hcatalog-webhcat-env

Altere os valores no ambiente ebHCat de HCatalog W.

hcatalog-webhcat-log4j2

Altere os valores nas propriedades ebHCat log4j2.properties de HCatalog W.

hcatalog-webhcat-site

Altere os valores no arquivo webhcat-site.xml de HCatalog W. ebHCat

hive-beeline-log4j2

Alterar os valores no arquivo beeline-log4j2.properties do Hive.

hive-parquet-logging

Alterar os valores no arquivo parquet-logging.properties do Hive.

hive-env

Alterar os valores no ambiente do Hive.

hive-exec-log4j2

Altere os valores no arquivo hive-exec-log 4j2.properties do Hive.

hive-llap-daemon-log4j2

Altere os valores no arquivo llap-daemon-log 4j2.properties do Hive.

hive-log4j2

Alterar os valores no arquivo hive-log4j2.properties do Hive.

hive-site

Alterar os valores no arquivo hive-site.xml do Hive.

hiveserver2-site

Alterar os valores no arquivo hiveserver2-site.xml do Hive Server2.

hue-ini

Alterar os valores no arquivo ini do Hue

httpfs-env

Mude os valores no HTTPFS ambiente.

httpfs-site

Alterar os valores no arquivo httpfs-site.xml do Hadoop.

hadoop-kms-acls

Alterar os valores no arquivo kms-acls.xml do Hadoop.

hadoop-kms-env

Altere os valores no ambiente HadoopKMS.

hadoop-kms-log4j

Alterar os valores no arquivo kms-log4j.properties do Hadoop.

hadoop-kms-site

Alterar os valores no arquivo kms-site.xml do Hadoop.

livy-conf

Alterar os valores no arquivo livy.conf do Livy.

livy-env

Alterar os valores no ambiente do Livy.

livy-log4j

Alterar as configurações de log4j.properties no Livy.

mapred-env

Altere os valores no ambiente do MapReduce aplicativo.

mapred-site

Altere os valores no arquivo mapred-site.xml do MapReduce aplicativo.

oozie-env

Alterar os valores no ambiente do Oozie.

oozie-log4j

Alterar os valores no arquivo oozie-log4j.properties do Oozie.

oozie-site

Alterar os valores no arquivo oozie-site.xml do Oozie.

phoenix-hbase-metrics

Alterar os valores no arquivo hadoop-metrics2-hbase.properties do Phoenix.

phoenix-hbase-site

Alterar os valores no arquivo hbase-site.xml do Phoenix.

phoenix-log4j

Alterar os valores no arquivo log4j.properties do Phoenix.

phoenix-metrics

Alterar os valores no arquivo hadoop-metrics2-phoenix.properties do Phoenix.

pig-properties

Alterar os valores no arquivo pig.properties do Pig.

pig-log4j

Alterar os valores no arquivo log4j.properties do Pig.

presto-log

Alterar os valores no arquivo log.properties do Presto.

presto-config

Alterar os valores no arquivo config.properties do Presto.

presto-env

Altere os valores no arquivo presto-env.sh do Presto.

presto-node

Altere os valores no arquivo node.properties do Presto.

presto-connector-blackhole

Alterar os valores no arquivo blackhole.properties do Presto.

presto-connector-cassandra

Alterar os valores no arquivo cassandra.properties do Presto.

presto-connector-hive

Alterar os valores no arquivo hive.properties do Presto.

presto-connector-jmx

Alterar os valores no arquivo jmx.properties do Presto.

presto-connector-kafka

Alterar os valores no arquivo kafka.properties do Presto.

presto-connector-localfile

Alterar os valores no arquivo localfile.properties do Presto.

presto-connector-mongodb

Alterar os valores no arquivo mongodb.properties do Presto.

presto-connector-mysql

Alterar os valores no arquivo mysql.properties do Presto.

presto-connector-postgresql

Alterar os valores no arquivo postgresql.properties do Presto.

presto-connector-raptor

Alterar os valores no arquivo raptor.properties do Presto.

presto-connector-redis

Alterar os valores no arquivo redis.properties do Presto.

presto-connector-tpch

Alterar os valores no arquivo tpch.properties do Presto.

spark

Configurações EMR selecionadas pela Amazon para o Apache Spark.

spark-defaults

Alterar os valores no arquivo spark-defaults.conf do Spark.

spark-env

Alterar os valores no ambiente do Spark.

spark-hive-site

Alterar os valores no arquivo hive-site.xml do Spark.

spark-log4j

Alterar os valores no arquivo log4j.properties do Spark.

spark-metrics

Alterar os valores no arquivo metrics.properties do Spark.

sqoop-env

Alterar os valores no ambiente do Sqoop.

sqoop-oraoop-site

Altere os valores no arquivo oraoop-site.xml OraOop do Sqoop.

sqoop-site

Alterar os valores no arquivo sqoop-site.xml do Sqoop.

tez-site

Alterar os valores no arquivo tez-site.xml do Tez.

yarn-env

Mude os valores no YARN ambiente.

yarn-site

Altere os valores no YARN arquivo yarn-site.xml do.

zeppelin-env

Alterar os valores no ambiente do Zeppelin.

zookeeper-config

Altere os valores no ZooKeeper arquivo zoo.cfg do.

zookeeper-log4j

Altere os valores no ZooKeeper arquivo log4j.properties.