Amazon EMR versão 6.3.0 - Amazon EMR

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Amazon EMR versão 6.3.0

Versões 6.3.0 da aplicação

As seguintes aplicações são compatíveis com esta versão: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, PrestoSQL, Spark, Sqoop, TensorFlow, Tez, Zeppelin e ZooKeeper.

A tabela abaixo lista as versões do aplicativo disponíveis nesta versão da Amazon EMR e as versões do aplicativo nas três EMR versões anteriores da Amazon (quando aplicável).

Para obter um histórico abrangente das versões do aplicativo para cada lançamento da AmazonEMR, consulte os seguintes tópicos:

Informações da versão da aplicação
emr-6.3.0 emr-6.2.1 emr-6.2.0 emr-6.1.1
AWS SDK para Java 1.11.9771.11.8801.11.8801.11.828
Python 2,7, 3,72,7, 3,72,7, 3,72,7, 3,7
Scala 2.12.102.12.102.12.102.12.10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.12.11.11.21.11.21.11.0
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.62.2.6-amzn-02.2.6-amzn-02.2.5
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.7.0-amzn-00.6.0-amzn-10.6.0-amzn-10.5.2-incubating-amzn-2
Hue4.9.04.8.04.8.04.7.1
Iceberg - - - -
JupyterEnterpriseGateway2.1.02.1.02.1.0 -
JupyterHub1.2.21.1.01.1.01.1.0
Livy0.7.00.7.00.7.00.7.0
MXNet1.7.01.7.01.7.01.6.0
Mahout - - - -
Oozie5.2.15.2.05.2.05.2.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.00.17.00.17.0
Presto0,245,10,238,30,238,30.232
Spark3.1.13.0.13.0.13.0.0
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.4.12.3.12.3.12.1.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)350343343338
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

Notas da versão 6.3.0

As notas de lançamento a seguir incluem informações sobre a EMR versão 6.3.0 da Amazon. As alterações são referentes à versão 6.2.0.

Data da versão inicial: 12 de maio de 2021

Data da última atualização: 9 de agosto de 2021

Aplicações compatíveis
  • AWS SDK for Java versão 1.11.977

  • CloudWatch Sink versão 2.1.0

  • Conector do DynamoDB versão 4.16.0

  • EMRFSversão 2.46.0

  • Amazon EMR Goodies versão 3.2.0

  • Amazon EMR Kinesis Connector versão 3.5.0

  • Amazon EMR Record Server versão 2.0.0

  • Amazon EMR Scripts versão 2.5.0

  • Flink versão 1.12.1

  • Ganglia versão 3.7.2

  • AWS Glue Hive Metastore Client versão 3.2.0

  • Hadoop versão 3.2.1-amzn-3

  • HBaseversão 2.2.6-amzn-1

  • HBase-operator-tools 1.0.0

  • HCatalogversão 3.1.2-amzn-0

  • Hive versão 3.1.2-amzn-4

  • Hudi versão 0.7.0-amzn-0

  • Hue versão 4.9.0

  • JDKVersão Java Corretto-8.282.08.1 (compilação 1.8.0_282-b08)

  • JupyterHub versão 1.2.0

  • Livy versão 0.7.0-incubating

  • MXNetversão 1.7.0

  • Oozie versão 5.2.1

  • Phoenix versão 5.0.0

  • Pig versão 0.17.0

  • Presto versão 0.245.1-amzn-0

  • Presto SQL versão 350

  • Apache Ranger KMS (criptografia transparente multi-master) versão 2.0.0

  • ranger-plugins 2.0.1-amzn-0

  • ranger-s3-plugin 1.1.0

  • SageMaker Spark SDK versão 1.4.1

  • Scala versão 2.12.10 (VM de servidor aberto de JDK 64 bits, Java 1.8.0_282)

  • Spark versão 3.1.1-amzn-0

  • spark-rapids 0.4.1

  • Sqoop versão 1.4.7

  • TensorFlow versão 2.4.1

  • Tez versão 0.9.2

  • Zeppelin versão 0.9.0

  • Zookeeper versão 3.4.14

  • Conectores e drivers: DynamoDB Connector 4.16.0

Novos atributos
  • A Amazon EMR oferece suporte aos pontos de acesso do Amazon S3, um recurso do Amazon S3 que permite gerenciar facilmente o acesso a data lakes compartilhados. Usando o alias do Amazon S3 Access Point, você pode simplificar o acesso aos dados em grande escala na Amazon. EMR Você pode usar os pontos de acesso do Amazon S3 com todas as versões da Amazon sem EMR custo adicional em todas as AWS regiões onde a Amazon EMR está disponível. Para saber mais sobre Pontos de Acesso Amazon S3 e aliases de ponto de acesso, consulte Usar um alias em estilo de bucket para seu ponto de acesso no Guia do usuário do Amazon S3.

  • Novos ListReleaseLabel API parâmetros DescribeReleaseLabel e parâmetros fornecem detalhes da etiqueta EMR de lançamento da Amazon. Você pode listar programaticamente os lançamentos disponíveis na região em que a API solicitação é executada e listar os aplicativos disponíveis para uma etiqueta de EMR lançamento específica da Amazon. Os parâmetros da etiqueta de lançamento também listam as EMR versões da Amazon que oferecem suporte a um aplicativo específico, como o Spark. Essas informações podem ser usadas para iniciar programaticamente clusters da AmazonEMR. Por exemplo, você pode iniciar um cluster usando a versão mais recente dos resultados de ListReleaseLabel. Para obter mais informações, consulte DescribeReleaseLabele ListReleaseLabelsna EMRAPIReferência da Amazon.

  • Com o Amazon EMR 6.3.0, você pode iniciar um cluster que se integra nativamente com o Apache Ranger. O Apache Ranger é uma estrutura de código aberto para habilitar, monitorar e gerenciar uma segurança de dados abrangente em toda a plataforma Hadoop. Para obter mais informações, consulte Apache Ranger. Com a integração nativa, você pode trazer seu próprio Apache Ranger para impor um controle refinado de acesso aos dados na Amazon. EMR Consulte Integrar a Amazon EMR com o Apache Ranger no Guia de EMR gerenciamento da Amazon.

  • Políticas gerenciadas com escopo definido: para se alinhar às AWS melhores práticas, a Amazon EMR introduziu políticas EMR gerenciadas padrão com escopo v2 como substitutas das políticas que serão descontinuadas. Consulte as políticas EMR gerenciadas da Amazon.

  • Status de suporte do Instance Metadata Service (IMDS) V2: Para o Amazon EMR 6.2 ou posterior, os EMR componentes da Amazon são usados IMDSv2 para todas as chamadas. IMDS Para IMDS chamadas no código do seu aplicativo, você pode usar ambos IMDSv1 eIMDSv2, ou configurar o IMDS para uso somente IMDSv2 para aumentar a segurança. Se você desabilitar IMDSv1 em versões anteriores do Amazon EMR 6.x, isso causará uma falha na inicialização do cluster.

Alterações, melhorias e problemas resolvidos
  • Esta é uma versão para corrigir problemas com o Amazon EMR Scaling quando ele falha na escalabilidade ou redução de escala de um cluster com sucesso ou causa falhas no aplicativo.

  • Corrigido um problema em que as solicitações de escalabilidade falhavam em um cluster grande e altamente utilizado quando os daemons no cluster da EMR Amazon estavam executando atividades de verificação de integridade, como coletar o estado do nó e o estado do YARN nó. HDFS Isso estava acontecendo porque os daemons no cluster não conseguiam comunicar os dados do status de saúde de um nó aos componentes internos da Amazon. EMR

  • Daemons EMR no cluster aprimorados para rastrear corretamente os estados dos nós quando os endereços IP são reutilizados para melhorar a confiabilidade durante as operações de escalabilidade.

  • SPARK-29683. Corrigido um problema em que ocorriam falhas de trabalho durante a redução da escala verticalmente do cluster, pois o Spark presumia que todos os nós disponíveis estavam na lista de negação.

  • YARN-9011. Corrigido um problema em que falhas de trabalho ocorriam devido a uma condição de corrida no YARN descomissionamento quando o cluster tentava aumentar ou diminuir a escala.

  • Foi corrigido o problema com falhas de etapas ou tarefas durante a escalabilidade do cluster, garantindo que os estados dos nós fossem sempre consistentes entre os EMR daemons no cluster da Amazon e/. YARN HDFS

  • Corrigido um problema em que operações de cluster, como redução de escala e envio de etapas, falhavam em EMR clusters da Amazon habilitados com a autenticação Kerberos. Isso ocorreu porque o daemon no EMR cluster da Amazon não renovou o tíquete Kerberos, que é necessário para se comunicar de forma segura com/em execução no nó primário. HDFS YARN

  • As EMR versões mais recentes da Amazon corrigem o problema com um limite menor de “Máximo de arquivos abertos” em relação aos mais antigos AL2 na AmazonEMR. As EMR versões 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e posteriores agora incluem uma correção permanente com uma configuração mais alta de “Máximo de arquivos abertos”.

  • O padrão do modo de explicação da SQL interface do Spark foi alterado de extended para para formatted no Spark 3.1. A Amazon o EMR reverteu extended para incluir informações do plano lógico na interface do usuário do SparkSQL. Isso pode ser revertido definindo spark.sql.ui.explainMode como formatted.

  • As confirmações a seguir foram transferidas da principal ramificação do Spark.

    - [SPARK-34752] [BUILD] Bump Jetty para 9.4.37 para o endereço -2020-27223. CVE

    - [SPARK-34534] Corrige a blockIds ordem ao usar FetchShuffleBlocks para buscar blocos.

    - [SPARK-34681] [SQL] Corrige o erro da junção de hash embaralhada externa completa ao construir o lado esquerdo com condições diferentes.

    - [SPARK-34497] [SQL] Corrija os provedores de JDBC conexão integrados para restaurar as alterações no contexto JVM de segurança.

  • Para melhorar a interoperabilidade com o RAPIDs plug-in Nvidia Spark, foi adicionada uma solução alternativa para solucionar um problema que impede que a remoção dinâmica de partições seja acionada ao usar o Nvidia Spark RAPIDs com a execução adaptativa de consultas desativada, consulte o problema #1378 e o problema # #1386. RAPIDS RAPIDS Para obter detalhes sobre a nova configuraçãospark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse, consulte o RAPIDSproblema # #1386.

  • O algoritmo padrão do confirmador de saída de arquivo foi alterado do algoritmo v2 para o algoritmo v1 no Spark 3.1 de código aberto. Para obter mais informações, consulte Amazon EMR otimizando o desempenho do Spark - remoção dinâmica de partições.

  • A Amazon EMR voltou ao algoritmo v2, o padrão usado em versões anteriores do Amazon EMR 6.x, para evitar a regressão de desempenho. Para restaurar o comportamento de código aberto do Spark 3.1, defina spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version como 1. O Spark de código aberto fez essa alteração porque a confirmação de tarefas no algoritmo do confirmador de saída de arquivo v2 não é atômica, o que pode causar um problema de exatidão dos dados de saída em alguns casos. No entanto, a confirmação da tarefa no algoritmo v1 também não é atômica. Em alguns cenários, a confirmação da tarefa inclui uma exclusão realizada antes de uma renomeação. Isso pode resultar em um problema silencioso de correção de dados.

  • Corrigiu problemas de escalabilidade gerenciada em EMR versões anteriores da Amazon e fez melhorias para que as taxas de falha de aplicativos fossem significativamente reduzidas.

  • Instalou o AWS Java SDK Bundle em cada novo cluster. Esse é um único jar contendo todos os serviços SDKs e suas dependências, em vez de jars de componentes individuais. Para obter mais informações, consulte Java SDK Bundled Dependency.

Problemas conhecidos
  • Para clusters de sub-rede privados Amazon EMR 6.3.0 e 6.2.0, você não pode acessar a interface web do Ganglia. Você receberá um erro de “acesso negado (403)”. Outros sitesUIs, como Spark, Hue, Zeppelin JupyterHub, Livy e Tez, estão funcionando normalmente. O acesso à interface do usuário da Web do Ganglia em clusters de sub-redes públicas também está funcionando normalmente. Para resolver esse problema, reinicie o serviço httpd no nó primário com sudo systemctl restart httpd. Esse problema foi corrigido no Amazon EMR 6.4.0.

  • Quando o AWS Glue Data Catalog está ativado, o uso do Spark para acessar um AWS Glue DB com localização de string nula URI pode falhar. Isso acontece com EMR versões anteriores da Amazon, mas SPARK -31709 (https://issues.apache.org/jira/browse/ SPARK -31709) faz com que se aplique a mais casos. Por exemplo, ao criar uma tabela no AWS Glue DB padrão cuja localização URI é uma string nula, spark.sql("CREATE TABLE mytest (key string) location '/table_path';") falha com a mensagem “Não é possível criar um caminho a partir de uma string vazia”. Para contornar isso, defina manualmente a localização URI dos seus bancos de dados AWS Glue e crie tabelas dentro desses bancos de dados usando o Spark.

  • Na Amazon EMR 6.3.0, o Presto SQL foi atualizado da versão 343 para a versão 350. Há duas alterações relacionadas à segurança provenientes do código aberto que se relaciona a essa alteração de versão. O controle de acesso ao catálogo baseado em arquivos é alterado de deny para allow quando as regras de propriedades de tabela, esquema ou sessão não são definidas. Além disso, o controle de acesso ao sistema baseado em arquivos é alterado para oferecer suporte a arquivos sem regras de catálogo definidas. Nesse caso, todo o acesso aos catálogos é permitido.

    Para obter mais informações, consulte a Versão 344 (9 de outubro de 2020).

  • Observe que o diretório de usuário do Hadoop (/home/hadoop) pode ser lido por todos. Ele tem permissões de diretório Unix 755 (drwxr-xr-x) para permitir acesso de leitura por estruturas como o Hive. Você pode colocar arquivos em /home/hadoop e seus subdiretórios, mas esteja ciente das permissões desses diretórios para proteger informações confidenciais.

  • Limite inferior de “Máximo de arquivos abertos” em versões mais antigas AL2 [corrigido em versões mais recentes]. EMRLançamentos da Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 e emr-6.2.0 são baseados em versões mais antigas do Linux ofAmazon 2 ()AL2, que têm uma configuração de limite inferior para “Máximo de arquivos abertos” quando os clusters da Amazon são criados com o padrão. EMR AMI As EMR versões 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e posteriores incluem uma correção permanente com uma configuração maior de “Máximo de arquivos abertos”. Versões com o limite inferior de arquivos abertos causam o erro “Muitos arquivos abertos” ao ser enviado um trabalho do Spark. Nas versões afetadas, o padrão da Amazon AMI tem uma configuração EMR padrão de ulimit de 4096 para “Máximo de arquivos abertos”, que é inferior ao limite de 65536 arquivos no Linux 2. latestAmazon AMI A configuração inferior de ulimit para “Máximo de arquivos abertos” causa falhas em trabalhos do Spark quando o driver e o executor do Spark tentam abrir mais de 4096 arquivos. Para corrigir o problema, a Amazon EMR tem um script de ação de bootstrap (BA) que ajusta a configuração ulimit na criação do cluster.

    Se você estiver usando uma EMR versão mais antiga da Amazon que não tem a solução permanente para esse problema, a solução alternativa a seguir permite que você defina explicitamente o ulimit do controlador de instância para um máximo de 65536 arquivos.

    Defina explicitamente um ulimit na linha de comando
    1. Edite /etc/systemd/system/instance-controller.service para adicionar os seguintes parâmetros à seção Serviço.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Reiniciar InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Defina um ulimit usando a ação de bootstrap (BA)

    Você também pode usar um script de ação de bootstrap (BA) para configurar o ulimit instance-controller para 65536 arquivos na criação do cluster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Importante

    EMRclusters que executam Amazon Linux ou Amazon Linux 2 Amazon Machine Images (AMIs) usam o comportamento padrão do Amazon Linux e não baixam e instalam automaticamente atualizações importantes e críticas do kernel que exigem uma reinicialização. Esse é o mesmo comportamento de outras EC2 instâncias da Amazon que executam o Amazon Linux padrãoAMI. Se novas atualizações de software Amazon Linux que exigem uma reinicialização (como kernel e CUDA atualizações) ficarem disponíveis após a disponibilização de uma EMR versão da Amazon, as instâncias de EMR cluster que executam o padrão AMI não baixam e instalam automaticamente essas atualizações. NVIDIA Para obter atualizações do kernel, você pode personalizar sua Amazon EMR AMI para usar o Amazon Linux AMI mais recente.

  • Para usar as ações do Spark com o Apache Oozie, você deve adicionar a seguinte configuração ao seu arquivo workflow.xml do Oozie. Caso contrário, várias bibliotecas críticas, como a Hadoop e a Hadoop, EMRFS estarão ausentes do classpath dos executores do Spark que o Oozie lança.

    <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  • Quando você usa o Spark com a formatação de localização de partições do Hive para ler dados no Amazon S3 e executa o Spark nas EMR versões 5.30.0 a 5.36.0 e 6.2.0 a 6.9.0 da Amazon, você pode encontrar um problema que impede seu cluster de ler os dados corretamente. Isso poderá acontecer se suas partições tiverem todas as características a seguir:

    • Duas ou mais partições são verificadas na mesma tabela.

    • Pelo menos um caminho de diretório de partição é um prefixo de pelo menos outro caminho de diretório de partição, por exemplo, s3://bucket/table/p=a é um prefixo de s3://bucket/table/p=a b.

    • O primeiro caractere que segue o prefixo no outro diretório de partição tem um valor UTF -8 menor que o / caractere (U+002F). Por exemplo, o caractere de espaço (U+0020) que ocorre entre a e b em s3://bucket/table/p=a b se enquadra nessa categoria. Observe que existem 14 outros caracteres que não são de controle: !"#$%&‘()*+,-. Para obter mais informações, consulte a tabela de codificação UTF -8 e caracteres Unicode.

    Como solução alternativa para esse problema, defina a configuração spark.sql.sources.fastS3PartitionDiscovery.enabled como false na classificação spark-defaults.

Versões de componente 6.3.0

Os componentes que a Amazon EMR instala com esta versão estão listados abaixo. Alguns são instalados como parte de pacotes de aplicativos de big data. Outros são exclusivos da Amazon EMR e são instalados para processos e recursos do sistema. Eles normalmente começam com emr ou aws. Os pacotes de aplicativos de big data na versão mais recente da Amazon EMR geralmente são a versão mais recente encontrada na comunidade. Disponibilizamos lançamentos comunitários na Amazon o mais EMR rápido possível.

Alguns componentes na Amazon EMR são diferentes das versões da comunidade. Esses componentes tem um rótulo de versão no formulário CommunityVersion-amzn-EmrVersion. O EmrVersion começa em 0. Por exemplo, se um componente de comunidade de código aberto nomeado myapp-component com a versão 2.2 tiver sido modificado três vezes para inclusão em diferentes EMR versões da Amazon, sua versão de lançamento será listada como2.2-amzn-2.

Componente Version (Versão) Descrição
aws-sagemaker-spark-sdk1.4.1Amazon SageMaker Spark SDK
emr-ddb4.16.0O conector do Amazon DynamoDB para aplicativos do ecossistema do Hadoop.
emr-goodies3.2.0Bibliotecas convenientes para o ecossistema do Hadoop.
emr-kinesis3.5.0O conector do Amazon Kinesis para aplicativos do ecossistema do Hadoop.
emr-notebook-env1.2.0Ambiente Conda para bloco de anotações do emr, que inclui o jupyter enterprise gateway
emr-s3-dist-cp2.18.0Cópia distribuída otimizada de aplicativos para o Amazon S3.
emr-s3-select2.1.0EMRConector S3Select
emrfs2.46.0O conector do Amazon S3 para aplicações do ecossistema do Hadoop.
flink-client1.12.1Scripts do cliente da linha de comando e aplicativos do Apache Flink.
flink-jobmanager-config1.12.1Gerenciando recursos em EMR nós para o Apache JobManager Flink.
ganglia-monitor3.7.2O agente incorporado do Ganglia para aplicativos do ecossistema do Hadoop, juntamente com o agente de monitoramento do Ganglia.
ganglia-metadata-collector3.7.2O coletor de metadados do Ganglia para agregar métricas de agentes de monitoramento do Ganglia.
ganglia-web3.7.1O aplicativo web para visualizar as métricas coletadas pelo coletor de metadados do Ganglia.
hadoop-client3.2.1-amzn-3Clientes da linha de comando do Hadoop, como 'hdfs', 'hadoop', ou 'yarn'.
hadoop-hdfs-datanode3.2.1-amzn-3HDFSserviço em nível de nó para armazenar blocos.
hadoop-hdfs-library3.2.1-amzn-3HDFScliente e biblioteca de linha de comando
hadoop-hdfs-namenode3.2.1-amzn-3HDFSserviço para rastrear nomes de arquivos e localizações de blocos.
hadoop-hdfs-journalnode3.2.1-amzn-3HDFSserviço para gerenciar o diário do sistema de arquivos Hadoop em clusters HA.
hadoop-httpfs-server3.2.1-amzn-3HTTPendpoint para HDFS operações.
hadoop-kms-server3.2.1-amzn-3Servidor de gerenciamento de chaves criptográficas baseado no Hadoop. KeyProvider API
hadoop-mapred3.2.1-amzn-3MapReduce bibliotecas de mecanismos de execução para executar um MapReduce aplicativo.
hadoop-yarn-nodemanager3.2.1-amzn-3YARNserviço para gerenciar contêineres em um nó individual.
hadoop-yarn-resourcemanager3.2.1-amzn-3YARNserviço para alocar e gerenciar recursos de cluster e aplicativos distribuídos.
hadoop-yarn-timeline-server3.2.1-amzn-3Serviço para recuperar informações atuais e históricas para YARN aplicativos.
hbase-hmaster2.2.6-amzn-1Serviço para um HBase cluster responsável pela coordenação das regiões e execução de comandos administrativos.
hbase-region-server2.2.6-amzn-1Serviço para atender a uma ou mais HBase regiões.
hbase-client2.2.6-amzn-1HBasecliente de linha de comando.
hbase-rest-server2.2.6-amzn-1Serviço que fornece um RESTful HTTP endpoint paraHBase.
hbase-thrift-server2.2.6-amzn-1Serviço que fornece um endpoint Thrift para. HBase
hcatalog-client3.1.2-amzn-4O cliente da linha de comando 'hcat' para manipular o hcatalog-server.
hcatalog-server3.1.2-amzn-4Fornecimento de serviçosHCatalog, uma camada de gerenciamento de tabelas e armazenamento para aplicativos distribuídos.
hcatalog-webhcat-server3.1.2-amzn-4HTTPendpoint fornecendo uma REST interface paraHCatalog.
hive-client3.1.2-amzn-4O cliente da linha de comando do Hive.
hive-hbase3.1.2-amzn-4Cliente do Hive-hbase.
hive-metastore-server3.1.2-amzn-4Serviço para acessar o metastore Hive, um repositório semântico que armazena metadados para operações no Hadoop. SQL
hive-server23.1.2-amzn-4O serviço que aceita as consultas do Hive como solicitações da web.
hudi0.7.0-amzn-0Estrutura de processamento incremental para alimentar o pipeline de dados com baixa latência e alta eficiência.
hudi-presto0.7.0-amzn-0Biblioteca de pacotes para executar o Presto com o Hudi.
hudi-prestosql0.7.0-amzn-0Biblioteca de pacotes para executar o Presto SQL com o Hudi.
hudi-spark0.7.0-amzn-0Biblioteca de pacotes para executar o Spark com o Hudi.
hue-server4.9.0O aplicativo web para analisar dados usando aplicativos do ecossistema do Hadoop
jupyterhub1.2.2Servidor de vários usuários para blocos de anotações Jupyter
livy-server0.7.0-incubatingRESTinterface para interagir com o Apache Spark
nginx1.12.1nginx [engine x] é HTTP um servidor proxy reverso
mxnet1.7.0Uma biblioteca flexível, escalável e eficiente para aprendizado aprofundado.
mariadb-server5.5.68+Servidor de banco de dados MariaDB.
nvidia-cuda10.1.243Drivers NVIDIA e toolkit CUDA
oozie-client5.2.1O cliente da linha de comando do Oozie.
oozie-server5.2.1O serviço que aceita solicitações de fluxo de trabalho do Oozie.
opencv4.5.0Biblioteca de Visão Computacional de Código Aberto.
phoenix-library5.0.0- HBase -2,0As bibliotecas do phoenix para servidor e cliente
phoenix-query-server5.0.0- HBase -2,0Um servidor leve que fornece JDBC acesso, buffers de protocolo e acesso ao JSON formato do Avatica API
presto-coordinator0.245.1-amzn-0O serviço que aceita consultas e gerencia a execução de consultas entre os presto-workers.
presto-worker0.245.1-amzn-0O serviço que executa partes de uma consulta.
presto-client0.245.1-amzn-0Cliente de linha de comando do Presto instalado em mestres de espera de um cluster de alta disponibilidade em que o servidor do Presto não é iniciado.
prestosql-coordinator350O serviço que aceita consultas e gerencia a execução de consultas entre os prestosql-workers.
prestosql-worker350O serviço que executa partes de uma consulta.
prestosql-client350Cliente de linha de comando do Presto instalado em mestres de espera de um cluster de alta disponibilidade em que o servidor do Presto não é iniciado.
pig-client0.17.0O cliente da linha de comando do Pig.
r4.0.2O projeto R para computação estatística
ranger-kms-server2.0.0Sistema de gerenciamento de chaves Apache Ranger
spark-client3.1.1-amzn-0Os clientes da linha de comando do Spark.
spark-history-server3.1.1-amzn-0A interface de usuário da web para visualizar os eventos registrados por toda a vida útil de um aplicativo Spark concluído.
spark-on-yarn3.1.1-amzn-0Mecanismo de execução na memória paraYARN.
spark-yarn-slave3.1.1-amzn-0Bibliotecas do Apache Spark necessárias para escravos. YARN
spark-rapids0.4.1RAPIDSPlugin Nvidia Spark que acelera o Apache Spark com o. GPUs
sqoop-client1.4.7O cliente da linha de comando do Apache Sqoop.
tensorflow2.4.1TensorFlow biblioteca de software de código aberto para computação numérica de alto desempenho.
tez-on-yarn0.9.2O YARN aplicativo e as bibliotecas tez.
webserver2.4.41+HTTPServidor Apache.
zeppelin-server0.9.0O notebook baseado na web que permite a análise de dados interativa.
zookeeper-server3.4.14O serviço centralizado de manutenção de informações de configuração, nomenclatura, fornecimento de sincronização distribuída, e fornecimento de serviços de grupo.
zookeeper-client3.4.14ZooKeeper cliente de linha de comando.

Classificações de configuração 6.3.0

As classificações de configuração permitem que você personalize aplicações. Eles geralmente correspondem a um XML arquivo de configuração do aplicativo, comohive-site.xml. Para ter mais informações, consulte Configurar aplicações.

Ocorrem ações de reconfiguração quando você especifica uma configuração para grupos de instâncias em um cluster em execução. A Amazon EMR só inicia ações de reconfiguração para as classificações que você modifica. Para ter mais informações, consulte Reconfigurar um grupo de instâncias de um cluster em execução.

Classificações do emr-6.3.0
Classificações Descrição Ações de reconfiguração

capacity-scheduler

Alterar os valores no arquivo capacity-scheduler.xml do Hadoop.

Restarts the ResourceManager service.

container-executor

Altere os valores no arquivo container-executor.cfg YARN do Hadoop.

Not available.

container-log4j

Altere os valores no arquivo container-log4j.properties YARN do Hadoop.

Not available.

core-site

Alterar os valores no arquivo core-site.xml do Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Alterar as configurações relacionadas ao docker.

Not available.

emrfs-site

Altere EMRFS as configurações.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Alterar as configurações do flink-conf.yaml.

Restarts Flink history server.

flink-log4j

Alterar as configurações de log4j.properties no Flink.

Restarts Flink history server.

flink-log4j-session

Alterar as configurações de log4j-yarn-session.properties no Flink para sessão do Kubernetes/Yarn.

Restarts Flink history server.

flink-log4j-cli

Alterar as configurações de log4j-cli.properties no Flink.

Restarts Flink history server.

hadoop-env

Alterar os valores no ambiente do Hadoop para todos os componentes do Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Alterar os valores no arquivo log4j.properties do Hadoop.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Alterar a configuração do servidor SSL no Hadoop

Not available.

hadoop-ssl-client

Alterar a configuração do cliente SSL no Hadoop

Not available.

hbase

Configurações EMR selecionadas pela Amazon para Apache. HBase

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Mude os valores no HBase ambiente.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Altere os valores no arquivo HBase hbase-log4j.properties.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Altere os valores no arquivo HBase hadoop-metrics2-hbase.properties do.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Altere os valores no HBase arquivo hbase-policy.xml do.

Not available.

hbase-site

Altere os valores no HBase arquivo hbase-site.xml do.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Configure zonas de HDFS criptografia.

This classification should not be reconfigured.

hdfs-env

Mude os valores no HDFS ambiente.

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

Altere os valores no HDFS hdfs-site.xml.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Mude os valores no HCatalog ambiente.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Altere os valores em HCatalog jndi.properties.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Altere os valores em HCatalog proto-hive-site .xml.

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Altere os valores no ambiente ebHCat de HCatalog W.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

Altere os valores nas propriedades ebHCat log4j2.properties de HCatalog W.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

Altere os valores no arquivo webhcat-site.xml de HCatalog W. ebHCat

Restarts Hive WebHCat server.

hive

Configurações EMR selecionadas pela Amazon para o Apache Hive.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Alterar os valores no arquivo beeline-log4j2.properties do Hive.

Not available.

hive-parquet-logging

Alterar os valores no arquivo parquet-logging.properties do Hive.

Not available.

hive-env

Alterar os valores no ambiente do Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Altere os valores no arquivo hive-exec-log 4j2.properties do Hive.

Not available.

hive-llap-daemon-log4j2

Altere os valores no arquivo llap-daemon-log 4j2.properties do Hive.

Not available.

hive-log4j2

Alterar os valores no arquivo hive-log4j2.properties do Hive.

Not available.

hive-site

Alterar os valores no arquivo hive-site.xml do Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Alterar os valores no arquivo hiveserver2-site.xml do Hive Server2.

Not available.

hue-ini

Alterar os valores no arquivo ini do Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Mude os valores no HTTPFS ambiente.

Restarts Hadoop Httpfs service.

httpfs-site

Alterar os valores no arquivo httpfs-site.xml do Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Alterar os valores no arquivo kms-acls.xml do Hadoop.

Not available.

hadoop-kms-env

Altere os valores no ambiente HadoopKMS.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

Alterar os valores no arquivo kms-log4j.properties do Hadoop.

Not available.

hadoop-kms-site

Alterar os valores no arquivo kms-site.xml do Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Altere os valores no ambiente do Hudi.

Not available.

jupyter-notebook-conf

Alterar os valores no arquivo jupyter_notebook_config.py do Notebook Jupyter.

Not available.

jupyter-hub-conf

Altere os valores no JupyterHubs arquivo jupyterhub_config.py do.

Not available.

jupyter-s3-conf

Configurar a persistência do notebook Jupyter S3.

Not available.

jupyter-sparkmagic-conf

Altere os valores no arquivo config.json do Sparkmagic.

Not available.

livy-conf

Alterar os valores no arquivo livy.conf do Livy.

Restarts Livy Server.

livy-env

Alterar os valores no ambiente do Livy.

Restarts Livy Server.

livy-log4j

Alterar as configurações de log4j.properties no Livy.

Restarts Livy Server.

mapred-env

Altere os valores no ambiente do MapReduce aplicativo.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Altere os valores no arquivo mapred-site.xml do MapReduce aplicativo.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Alterar os valores no ambiente do Oozie.

Restarts Oozie.

oozie-log4j

Alterar os valores no arquivo oozie-log4j.properties do Oozie.

Restarts Oozie.

oozie-site

Alterar os valores no arquivo oozie-site.xml do Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Alterar os valores no arquivo hadoop-metrics2-hbase.properties do Phoenix.

Not available.

phoenix-hbase-site

Alterar os valores no arquivo hbase-site.xml do Phoenix.

Not available.

phoenix-log4j

Alterar os valores no arquivo log4j.properties do Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Alterar os valores no arquivo hadoop-metrics2-phoenix.properties do Phoenix.

Not available.

pig-env

Alterar os valores no ambiente do Pig.

Not available.

pig-properties

Alterar os valores no arquivo pig.properties do Pig.

Restarts Oozie.

pig-log4j

Alterar os valores no arquivo log4j.properties do Pig.

Not available.

presto-log

Alterar os valores no arquivo log.properties do Presto.

Restarts Presto-Server (for PrestoDB)

presto-config

Alterar os valores no arquivo config.properties do Presto.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Altere os valores no arquivo password-authenticator.properties do Presto.

Not available.

presto-env

Altere os valores no arquivo presto-env.sh do Presto.

Restarts Presto-Server (for PrestoDB)

presto-node

Altere os valores no arquivo node.properties do Presto.

Not available.

presto-connector-blackhole

Alterar os valores no arquivo blackhole.properties do Presto.

Not available.

presto-connector-cassandra

Alterar os valores no arquivo cassandra.properties do Presto.

Not available.

presto-connector-hive

Alterar os valores no arquivo hive.properties do Presto.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Alterar os valores no arquivo jmx.properties do Presto.

Not available.

presto-connector-kafka

Alterar os valores no arquivo kafka.properties do Presto.

Not available.

presto-connector-localfile

Alterar os valores no arquivo localfile.properties do Presto.

Not available.

presto-connector-memory

Alterar os valores no arquivo memory.properties do Presto.

Not available.

presto-connector-mongodb

Alterar os valores no arquivo mongodb.properties do Presto.

Not available.

presto-connector-mysql

Alterar os valores no arquivo mysql.properties do Presto.

Not available.

presto-connector-postgresql

Alterar os valores no arquivo postgresql.properties do Presto.

Not available.

presto-connector-raptor

Alterar os valores no arquivo raptor.properties do Presto.

Not available.

presto-connector-redis

Alterar os valores no arquivo redis.properties do Presto.

Not available.

presto-connector-redshift

Alterar os valores no arquivo de propriedades redshift do Presto.

Not available.

presto-connector-tpch

Alterar os valores no arquivo tpch.properties do Presto.

Not available.

presto-connector-tpcds

Alterar os valores no arquivo tpcds.properties do Presto.

Not available.

prestosql-log

Alterar os valores no arquivo log.properties do Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-config

Alterar os valores no arquivo config.properties do Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-password-authenticator

Altere os valores no arquivo password-authenticator.properties do Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-env

Altere os valores no arquivo presto-env.sh do Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-node

Altere os valores no arquivo SQL node.properties do Presto.

Not available.

prestosql-connector-blackhole

Altere os valores no arquivo SQL blackhole.properties do Presto.

Not available.

prestosql-connector-cassandra

Altere os valores no arquivo SQL cassandra.properties do Presto.

Not available.

prestosql-connector-hive

Altere os valores no arquivo SQL hive.properties do Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-connector-jmx

Altere os valores no arquivo SQL jmx.properties do Presto.

Not available.

prestosql-connector-kafka

Altere os valores no arquivo SQL kafka.properties do Presto.

Not available.

prestosql-connector-localfile

Altere os valores no arquivo SQL localfile.properties do Presto.

Not available.

prestosql-connector-memory

Altere os valores no arquivo SQL memory.properties do Presto.

Not available.

prestosql-connector-mongodb

Altere os valores no arquivo SQL mongodb.properties do Presto.

Not available.

prestosql-connector-mysql

Altere os valores no arquivo SQL mysql.properties do Presto.

Not available.

prestosql-connector-postgresql

Altere os valores no arquivo SQL postgresql.properties do Presto.

Not available.

prestosql-connector-raptor

Altere os valores no arquivo SQL raptor.properties do Presto.

Not available.

prestosql-connector-redis

Altere os valores no arquivo SQL redis.properties do Presto.

Not available.

prestosql-connector-redshift

Altere os valores no arquivo SQL redshift.properties do Presto.

Not available.

prestosql-connector-tpch

Altere os valores no arquivo SQL tpch.properties do Presto.

Not available.

prestosql-connector-tpcds

Altere os valores no arquivo SQL tpcds.properties do Presto.

Not available.

ranger-kms-dbks-site

Altere os valores no arquivo dbks-site.xml do Ranger. KMS

Restarts Ranger KMS Server.

ranger-kms-site

Altere os valores no ranger-kms-site arquivo.xml do RangerKMS.

Restarts Ranger KMS Server.

ranger-kms-env

Altere os valores no KMS ambiente Ranger.

Restarts Ranger KMS Server.

ranger-kms-log4j

Altere os valores no arquivo kms-log4j.properties do Ranger. KMS

Not available.

ranger-kms-db-ca

Altere os valores do arquivo CA no S3 para Minha SQL SSL conexão com o RangerKMS.

Not available.

spark

Configurações EMR selecionadas pela Amazon para o Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Alterar os valores no arquivo spark-defaults.conf do Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Alterar os valores no ambiente do Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Alterar os valores no arquivo hive-site.xml do Spark.

Not available.

spark-log4j

Alterar os valores no arquivo log4j.properties do Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Alterar os valores no arquivo metrics.properties do Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Alterar os valores no ambiente do Sqoop.

Not available.

sqoop-oraoop-site

Altere os valores no arquivo oraoop-site.xml OraOop do Sqoop.

Not available.

sqoop-site

Alterar os valores no arquivo sqoop-site.xml do Sqoop.

Not available.

tez-site

Alterar os valores no arquivo tez-site.xml do Tez.

Restart Oozie and HiveServer2.

yarn-env

Mude os valores no YARN ambiente.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Altere os valores no YARN arquivo yarn-site.xml do.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Alterar os valores no ambiente do Zeppelin.

Restarts Zeppelin.

zeppelin-site

Alterar as definições da configuração em zeppelin-site.xml.

Restarts Zeppelin.

zookeeper-config

Altere os valores no ZooKeeper arquivo zoo.cfg do.

Restarts Zookeeper server.

zookeeper-log4j

Altere os valores no ZooKeeper arquivo log4j.properties.

Restarts Zookeeper server.