As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Amazon EMR versão 6.0.0
Versões 6.0.0 da aplicação
Os seguintes aplicativos são compatíveis com esta versão: Ganglia
A tabela abaixo lista as versões do aplicativo disponíveis nesta versão da Amazon EMR e as versões do aplicativo nas três EMR versões anteriores da Amazon (quando aplicável).
Para obter um histórico abrangente das versões do aplicativo para cada lançamento da AmazonEMR, consulte os seguintes tópicos:
Informações da versão da aplicação | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AWS SDKpara Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AmazonCloudWatchAgent | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Delta | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Flink | 1.11.0 | 1.11.0 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Iceberg | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterEnterpriseGateway | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Livy | 0.7.0 | 0.7.0 | 0.6.0 | 0.6.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mahout | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pig | 0.17.0 | 0.17.0 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto | 0.232 | 0.232 | 0.230 | 0.230 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Spark | 3.0.0 | 3.0.0 | 2.4.4 | 2.4.4 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop | 1.4.7 | 1.4.7 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Trino (Em breve) SQL | 338 | 338 | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
Notas da versão 6.0.0
As notas de lançamento a seguir incluem informações sobre a EMR versão 6.0.0 da Amazon.
Data da versão inicial: 10 de março de 2020
Aplicações compatíveis
AWS SDK for Java versão 1.11.711
Ganglia versão 3.7.2
Hadoop versão 3.2.1
HBaseversão 2.2.3
HCatalogversão 3.1.2
Hive versão 3.1.2
Hudi versão 0.5.0 incubadora
Hue versão 4.4.0
JupyterHub versão 1.0.0
Livy versão 0.6.0
MXNetversão 1.5.1
Oozie versão 5.1.0
Phoenix versão 5.0.0
Presto versão 0.230
Spark versão 2.4.4
TensorFlow versão 1.14.0
Zeppelin versão 0.9.0- SNAPSHOT
Zookeeper versão 3.4.14
Conectores e drivers: DynamoDB Connector 4.14.0
nota
Flink, Sqoop, Pig e Mahout não estão disponíveis na versão 6.0.0 da Amazon. EMR
Novos atributos
YARNDocker Runtime Support — YARN aplicativos, como trabalhos do Spark, agora podem ser executados no contexto de um contêiner Docker. Isso permite que você defina facilmente dependências em uma imagem do Docker sem a necessidade de instalar bibliotecas personalizadas em seu cluster da AmazonEMR. Para obter mais informações, consulte Configurar a integração do Docker e executar aplicativos Spark com o Docker usando o Amazon 6.0.0. EMR
-
LLAPSuporte do Hive - O Hive agora suporta o modo de LLAP execução para melhorar o desempenho das consultas. Para obter mais informações, consulte Usando o Hive. LLAP
Alterações, melhorias e problemas resolvidos
-
Esta é uma versão para corrigir problemas com o Amazon EMR Scaling quando ele falha na escalabilidade ou redução de escala de um cluster com sucesso ou causa falhas no aplicativo.
Corrigido um problema em que as solicitações de escalabilidade falhavam em um cluster grande e altamente utilizado quando os daemons no cluster da EMR Amazon estavam executando atividades de verificação de integridade, como coletar o estado do nó e o estado do YARN nó. HDFS Isso estava acontecendo porque os daemons no cluster não conseguiam comunicar os dados do status de saúde de um nó aos componentes internos da Amazon. EMR
Daemons EMR no cluster aprimorados para rastrear corretamente os estados dos nós quando os endereços IP são reutilizados para melhorar a confiabilidade durante as operações de escalabilidade.
SPARK-29683
. Corrigido um problema em que ocorriam falhas de trabalho durante a redução da escala verticalmente do cluster, pois o Spark presumia que todos os nós disponíveis estavam na lista de negação. YARN-9011
. Corrigido um problema em que falhas de trabalho ocorriam devido a uma condição de corrida no YARN descomissionamento quando o cluster tentava aumentar ou diminuir a escala. Foi corrigido o problema com falhas de etapas ou tarefas durante a escalabilidade do cluster, garantindo que os estados dos nós fossem sempre consistentes entre os EMR daemons no cluster da Amazon e/. YARN HDFS
Corrigido um problema em que operações de cluster, como redução de escala e envio de etapas, falhavam em EMR clusters da Amazon habilitados com autenticação Kerberos. Isso ocorreu porque o daemon no EMR cluster da Amazon não renovou o tíquete Kerberos, que é necessário para se comunicar de forma segura com/em execução no nó primário. HDFS YARN
As EMR versões mais recentes da Amazon corrigem o problema com um limite menor de “Máximo de arquivos abertos” em relação aos mais antigos AL2 na AmazonEMR. As EMR versões 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e posteriores agora incluem uma correção permanente com uma configuração mais alta de “Máximo de arquivos abertos”.
Amazon Linux
O Amazon Linux 2 é o sistema operacional da série de lançamento EMR 6.x.
systemd
é usado para gerenciamento de serviços em vez do inAmazon Linux 1upstart
usado.
Kit de desenvolvimento Java (JDK)
Corretto JDK 8 é o padrão JDK para a série de lançamento EMR 6.x.
Scala
O Scala 2.12 é usado com o Apache Spark e com o Apache Livy.
Python 3
O Python 3 agora é a versão padrão do Python em. EMR
YARNrótulos de nós
A partir da série de lançamento Amazon EMR 6.x, o recurso de rótulos de YARN nós está desativado por padrão. Os principais processos do aplicativo podem ser executados tanto nos nós core como nos nós de tarefa por padrão. Você pode ativar o recurso de rótulos de YARN nós configurando as seguintes propriedades:
yarn.node-labels.enabled
e.yarn.node-labels.am.default-node-label-expression
Para obter mais informações, consulte Noções básicas sobre nós de tarefa, centrais e primários.
Problemas conhecidos
-
Limite inferior de “Máximo de arquivos abertos” em versões mais antigas AL2 [corrigido em versões mais recentes]. EMRLançamentos da Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 e emr-6.2.0 são baseados em versões mais antigas do Linux ofAmazon 2 ()AL2, que têm uma configuração de limite inferior para “Máximo de arquivos abertos” quando os clusters da Amazon são criados com o padrão. EMR AMI As EMR versões 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e posteriores incluem uma correção permanente com uma configuração maior de “Máximo de arquivos abertos”. Versões com o limite inferior de arquivos abertos causam o erro “Muitos arquivos abertos” ao ser enviado um trabalho do Spark. Nas versões afetadas, o padrão da Amazon AMI tem uma configuração EMR padrão de ulimit de 4096 para “Máximo de arquivos abertos”, que é inferior ao limite de 65536 arquivos no Linux 2. latestAmazon AMI A configuração inferior de ulimit para “Máximo de arquivos abertos” causa falhas em trabalhos do Spark quando o driver e o executor do Spark tentam abrir mais de 4096 arquivos. Para corrigir o problema, a Amazon EMR tem um script de ação de bootstrap (BA) que ajusta a configuração ulimit na criação do cluster.
Se você estiver usando uma EMR versão mais antiga da Amazon que não tem a solução permanente para esse problema, a solução alternativa a seguir permite que você defina explicitamente o ulimit do controlador de instância para um máximo de 65536 arquivos.
Defina explicitamente um ulimit na linha de comando
Edite
/etc/systemd/system/instance-controller.service
para adicionar os seguintes parâmetros à seção Serviço.LimitNOFILE=65536
LimitNPROC=65536
Reiniciar InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Defina um ulimit usando a ação de bootstrap (BA)
Você também pode usar um script de ação de bootstrap (BA) para configurar o ulimit instance-controller para 65536 arquivos na criação do cluster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
O shell interativo do Spark PySpark, incluindo o SparkR e o spark-shell, não é compatível com o uso do Docker com bibliotecas adicionais.
-
Para usar o Python 3 com a EMR versão 6.0.0 da Amazon, você deve adicionar a.
PATH
yarn.nodemanager.env-whitelist
-
A funcionalidade Live Long and Process (LLAP) não é suportada quando você usa o AWS Glue Data Catalog como metastore do Hive.
-
Ao usar o Amazon EMR 6.0.0 com a integração do Spark e do Docker, você precisa configurar as instâncias em seu cluster com o mesmo tipo de instância e a mesma quantidade de EBS volumes para evitar falhas ao enviar um trabalho do Spark com o tempo de execução do Docker.
-
No Amazon EMR 6.0.0, HBase no Amazon S3, o modo de armazenamento é afetado pelo HBASE problema -24286.
HBaseo master não pode inicializar quando o cluster é criado usando dados existentes do S3. -
Problema conhecido em clusters com vários nós primários e autenticação Kerberos
Se você executar clusters com vários nós primários e autenticação Kerberos nas EMR versões 5.20.0 e posteriores da Amazon, poderá encontrar problemas com operações de cluster, como redução de escala ou envio de etapas, depois que o cluster estiver em execução por algum tempo. O período depende do período de validade do tíquete do Kerberos que você definiu. O problema de redução da escala verticalmente afeta tanto as solicitações de redução automática quanto as de reduções explícitas que você enviou. Operações adicionais de cluster também podem ser afetadas.
Solução:
-
SSHcomo
hadoop
usuário do nó primário principal do EMR cluster com vários nós primários. -
Execute o comando a seguir para renovar o tíquete do Kerberos para o usuário do
hadoop
.kinit -kt <keytab_file> <principal>
Normalmente, o arquivo keytab está localizado em
/etc/hadoop.keytab
e a entidade principal está na forma dehadoop/<hostname>@<REALM>
.
nota
Essa solução alternativa entrará em vigor durante o período de validade do tíquete do Kerberos. Essa duração é de 10 horas por padrão, mas pode ser configurada pelas definições do Kerberos. Você deve executar novamente o comando acima quando o tíquete do Kerberos expirar.
-
Versões de componente 6.0.0
Os componentes que a Amazon EMR instala com esta versão estão listados abaixo. Alguns são instalados como parte de pacotes de aplicativos de big data. Outros são exclusivos da Amazon EMR e são instalados para processos e recursos do sistema. Eles normalmente começam com emr
ou aws
. Os pacotes de aplicativos de big data na versão mais recente da Amazon EMR geralmente são a versão mais recente encontrada na comunidade. Disponibilizamos lançamentos comunitários na Amazon o mais EMR rápido possível.
Alguns componentes na Amazon EMR são diferentes das versões da comunidade. Esses componentes tem um rótulo de versão no formulário
. O CommunityVersion
-amzn-EmrVersion
começa em 0. Por exemplo, se um componente de comunidade de código aberto nomeado EmrVersion
myapp-component
com a versão 2.2 tiver sido modificado três vezes para inclusão em diferentes EMR versões da Amazon, sua versão de lançamento será listada como2.2-amzn-2
.
Componente | Version (Versão) | Descrição |
---|---|---|
aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK |
emr-ddb | 4.14.0 | O conector do Amazon DynamoDB para aplicativos do ecossistema do Hadoop. |
emr-goodies | 3.0.0 | Bibliotecas convenientes para o ecossistema do Hadoop. |
emr-kinesis | 3.5.0 | O conector do Amazon Kinesis para aplicativos do ecossistema do Hadoop. |
emr-s3-dist-cp | 2.14.0 | Cópia distribuída otimizada de aplicativos para o Amazon S3. |
emr-s3-select | 1.5.0 | EMRConector S3Select |
emrfs | 2.39.0 | O conector do Amazon S3 para aplicações do ecossistema do Hadoop. |
ganglia-monitor | 3.7.2 | O agente incorporado do Ganglia para aplicativos do ecossistema do Hadoop, juntamente com o agente de monitoramento do Ganglia. |
ganglia-metadata-collector | 3.7.2 | O coletor de metadados do Ganglia para agregar métricas de agentes de monitoramento do Ganglia. |
ganglia-web | 3.7.1 | O aplicativo web para visualizar as métricas coletadas pelo coletor de metadados do Ganglia. |
hadoop-client | 3.2.1-amzn-0 | Clientes da linha de comando do Hadoop, como 'hdfs', 'hadoop', ou 'yarn'. |
hadoop-hdfs-datanode | 3.2.1-amzn-0 | HDFSserviço em nível de nó para armazenar blocos. |
hadoop-hdfs-library | 3.2.1-amzn-0 | HDFScliente e biblioteca de linha de comando |
hadoop-hdfs-namenode | 3.2.1-amzn-0 | HDFSserviço para rastrear nomes de arquivos e localizações de blocos. |
hadoop-hdfs-journalnode | 3.2.1-amzn-0 | HDFSserviço para gerenciar o diário do sistema de arquivos Hadoop em clusters HA. |
hadoop-httpfs-server | 3.2.1-amzn-0 | HTTPendpoint para HDFS operações. |
hadoop-kms-server | 3.2.1-amzn-0 | Servidor de gerenciamento de chaves criptográficas baseado no Hadoop. KeyProvider API |
hadoop-mapred | 3.2.1-amzn-0 | MapReduce bibliotecas de mecanismos de execução para executar um MapReduce aplicativo. |
hadoop-yarn-nodemanager | 3.2.1-amzn-0 | YARNserviço para gerenciar contêineres em um nó individual. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-0 | YARNserviço para alocar e gerenciar recursos de cluster e aplicativos distribuídos. |
hadoop-yarn-timeline-server | 3.2.1-amzn-0 | Serviço para recuperar informações atuais e históricas para YARN aplicativos. |
hbase-hmaster | 2.2.3 | Serviço para um HBase cluster responsável pela coordenação das regiões e execução de comandos administrativos. |
hbase-region-server | 2.2.3 | Serviço para atender a uma ou mais HBase regiões. |
hbase-client | 2.2.3 | HBasecliente de linha de comando. |
hbase-rest-server | 2.2.3 | Serviço que fornece um RESTful HTTP endpoint paraHBase. |
hbase-thrift-server | 2.2.3 | Serviço que fornece um endpoint Thrift para. HBase |
hcatalog-client | 3.1.2-amzn-0 | O cliente da linha de comando 'hcat' para manipular o hcatalog-server. |
hcatalog-server | 3.1.2-amzn-0 | Fornecimento de serviçosHCatalog, uma camada de gerenciamento de tabelas e armazenamento para aplicativos distribuídos. |
hcatalog-webhcat-server | 3.1.2-amzn-0 | HTTPendpoint fornecendo uma REST interface paraHCatalog. |
hive-client | 3.1.2-amzn-0 | O cliente da linha de comando do Hive. |
hive-hbase | 3.1.2-amzn-0 | Cliente do Hive-hbase. |
hive-metastore-server | 3.1.2-amzn-0 | Serviço para acessar o metastore Hive, um repositório semântico que armazena metadados para operações no Hadoop. SQL |
hive-server2 | 3.1.2-amzn-0 | O serviço que aceita as consultas do Hive como solicitações da web. |
hudi | 0.5.0-incubating-amzn-1 | Estrutura de processamento incremental para alimentar o pipeline de dados com baixa latência e alta eficiência. |
hudi-presto | 0.5.0-incubating-amzn-1 | Biblioteca de pacotes para executar o Presto com o Hudi. |
hue-server | 4.4.0 | O aplicativo web para analisar dados usando aplicativos do ecossistema do Hadoop |
jupyterhub | 1.0.0 | Servidor de vários usuários para blocos de anotações Jupyter |
livy-server | 0.6.0-incubating | RESTinterface para interagir com o Apache Spark |
nginx | 1.12.1 | nginx [engine x] é HTTP um servidor proxy reverso |
mxnet | 1.5.1 | Uma biblioteca flexível, escalável e eficiente para aprendizado aprofundado. |
mariadb-server | 5.5.64+ | Servidor de banco de dados MariaDB. |
nvidia-cuda | 9.2.88 | Drivers NVIDIA e toolkit CUDA |
oozie-client | 5.1.0 | O cliente da linha de comando do Oozie. |
oozie-server | 5.1.0 | O serviço que aceita solicitações de fluxo de trabalho do Oozie. |
opencv | 3.4.0 | Biblioteca de Visão Computacional de Código Aberto. |
phoenix-library | 5.0.0- HBase -2,0 | As bibliotecas do phoenix para servidor e cliente |
phoenix-query-server | 5.0.0- HBase -2,0 | Um servidor leve que fornece JDBC acesso, buffers de protocolo e acesso ao JSON formato do Avatica API |
presto-coordinator | 0.230 | O serviço que aceita consultas e gerencia a execução de consultas entre os presto-workers. |
presto-worker | 0.230 | O serviço que executa partes de uma consulta. |
presto-client | 0.230 | Cliente de linha de comando do Presto instalado em mestres de espera de um cluster de alta disponibilidade em que o servidor do Presto não é iniciado. |
r | 3.4.3 | O projeto R para computação estatística |
spark-client | 2.4.4 | Os clientes da linha de comando do Spark. |
spark-history-server | 2.4.4 | A interface de usuário da web para visualizar os eventos registrados por toda a vida útil de um aplicativo Spark concluído. |
spark-on-yarn | 2.4.4 | Mecanismo de execução na memória paraYARN. |
spark-yarn-slave | 2.4.4 | Bibliotecas do Apache Spark necessárias para escravos. YARN |
tensorflow | 1.14.0 | TensorFlow biblioteca de software de código aberto para computação numérica de alto desempenho. |
tez-on-yarn | 0.9.2 | O YARN aplicativo e as bibliotecas tez. |
webserver | 2.4.41+ | HTTPServidor Apache. |
zeppelin-server | 0.9.0- SNAPSHOT | O notebook baseado na web que permite a análise de dados interativa. |
zookeeper-server | 3.4.14 | O serviço centralizado de manutenção de informações de configuração, nomenclatura, fornecimento de sincronização distribuída, e fornecimento de serviços de grupo. |
zookeeper-client | 3.4.14 | ZooKeeper cliente de linha de comando. |
Classificações de configuração 6.0.0
As classificações de configuração permitem que você personalize aplicações. Eles geralmente correspondem a um XML arquivo de configuração do aplicativo, comohive-site.xml
. Para obter mais informações, consulte Configurar aplicações.
Classificações do emr-6.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Classificações | Descrição | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
capacity-scheduler | Alterar os valores no arquivo capacity-scheduler.xml do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-executor | Altere os valores no arquivo container-executor.cfg YARN do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
container-log4j | Altere os valores no arquivo container-log4j.properties YARN do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
core-site | Alterar os valores no arquivo core-site.xml do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
emrfs-site | Altere EMRFS as configurações. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-env | Alterar os valores no ambiente do Hadoop para todos os componentes do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-log4j | Alterar os valores no arquivo log4j.properties do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-server | Alterar a configuração do servidor SSL no Hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-ssl-client | Alterar a configuração do cliente SSL no Hadoop | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase | Configurações EMR selecionadas pela Amazon para Apache. HBase | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-env | Mude os valores no HBase ambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-log4j | Altere os valores no arquivo HBase hbase-log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-metrics | Altere os valores no arquivo HBase hadoop-metrics2-hbase.properties do. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-policy | Altere os valores no HBase arquivo hbase-policy.xml do. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hbase-site | Altere os valores no HBase arquivo hbase-site.xml do. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-encryption-zones | Configure as zonas de HDFS criptografia. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-env | Mude os valores no HDFS ambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-site | Altere os valores no HDFS hdfs-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-env | Mude os valores no HCatalog ambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-jndi | Altere os valores em HCatalog jndi.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-proto-hive-site | Altere os valores em HCatalog proto-hive-site .xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-env | Altere os valores no ambiente ebHCat de HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-log4j2 | Altere os valores nas propriedades ebHCat log4j2.properties de HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-site | Altere os valores no arquivo webhcat-site.xml de HCatalog W. ebHCat | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive | Configurações EMR selecionadas pela Amazon para o Apache Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-beeline-log4j2 | Alterar os valores no arquivo beeline-log4j2.properties do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-parquet-logging | Alterar os valores no arquivo parquet-logging.properties do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-env | Alterar os valores no ambiente do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-exec-log4j2 | Altere os valores no arquivo hive-exec-log 4j2.properties do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-llap-daemon-log4j2 | Altere os valores no arquivo llap-daemon-log 4j2.properties do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-log4j2 | Alterar os valores no arquivo hive-log4j2.properties do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-site | Alterar os valores no arquivo hive-site.xml do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hiveserver2-site | Alterar os valores no arquivo hiveserver2-site.xml do Hive Server2. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hue-ini | Alterar os valores no arquivo ini do Hue | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-env | Mude os valores no HTTPFS ambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-site | Alterar os valores no arquivo httpfs-site.xml do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-acls | Alterar os valores no arquivo kms-acls.xml do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-env | Altere os valores no ambiente HadoopKMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-log4j | Alterar os valores no arquivo kms-log4j.properties do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-site | Alterar os valores no arquivo kms-site.xml do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-notebook-conf | Alterar os valores no arquivo jupyter_notebook_config.py do Notebook Jupyter. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-hub-conf | Altere os valores no JupyterHubs arquivo jupyterhub_config.py do. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-s3-conf | Configurar a persistência do notebook Jupyter S3. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
jupyter-sparkmagic-conf | Altere os valores no arquivo config.json do Sparkmagic. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-conf | Alterar os valores no arquivo livy.conf do Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-env | Alterar os valores no ambiente do Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
livy-log4j | Alterar as configurações de log4j.properties no Livy. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-env | Altere os valores no ambiente do MapReduce aplicativo. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-site | Altere os valores no arquivo mapred-site.xml do MapReduce aplicativo. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-env | Alterar os valores no ambiente do Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-log4j | Alterar os valores no arquivo oozie-log4j.properties do Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-site | Alterar os valores no arquivo oozie-site.xml do Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-metrics | Alterar os valores no arquivo hadoop-metrics2-hbase.properties do Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-hbase-site | Alterar os valores no arquivo hbase-site.xml do Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-log4j | Alterar os valores no arquivo log4j.properties do Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
phoenix-metrics | Alterar os valores no arquivo hadoop-metrics2-phoenix.properties do Phoenix. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-log | Alterar os valores no arquivo log.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-config | Alterar os valores no arquivo config.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-password-authenticator | Altere os valores no arquivo password-authenticator.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-env | Altere os valores no arquivo presto-env.sh do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-node | Altere os valores no arquivo node.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-blackhole | Alterar os valores no arquivo blackhole.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-cassandra | Alterar os valores no arquivo cassandra.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-hive | Alterar os valores no arquivo hive.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-jmx | Alterar os valores no arquivo jmx.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-kafka | Alterar os valores no arquivo kafka.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-localfile | Alterar os valores no arquivo localfile.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-memory | Alterar os valores no arquivo memory.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mongodb | Alterar os valores no arquivo mongodb.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-mysql | Alterar os valores no arquivo mysql.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-postgresql | Alterar os valores no arquivo postgresql.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-raptor | Alterar os valores no arquivo raptor.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redis | Alterar os valores no arquivo redis.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-redshift | Alterar os valores no arquivo de propriedades redshift do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpch | Alterar os valores no arquivo tpch.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-tpcds | Alterar os valores no arquivo tpcds.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-dbks-site | Altere os valores no arquivo dbks-site.xml do Ranger. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-site | Altere os valores no ranger-kms-site arquivo.xml do RangerKMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-env | Altere os valores no KMS ambiente Ranger. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-log4j | Altere os valores no arquivo kms-log4j.properties do Ranger. KMS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ranger-kms-db-ca | Altere os valores do arquivo CA no S3 para Minha SQL SSL conexão com o RangerKMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-env | Mude os valores no EMR RecordServer ambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-conf | Altere os valores no arquivo EMR RecordServer erver.properties do. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
recordserver-log4j | Altere os valores no EMR RecordServer arquivo log4j.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark | Configurações EMR selecionadas pela Amazon para o Apache Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-defaults | Alterar os valores no arquivo spark-defaults.conf do Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-env | Alterar os valores no ambiente do Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-hive-site | Alterar os valores no arquivo hive-site.xml do Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-log4j | Alterar os valores no arquivo log4j.properties do Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-metrics | Alterar os valores no arquivo metrics.properties do Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
tez-site | Alterar os valores no arquivo tez-site.xml do Tez. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-env | Mude os valores no YARN ambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-site | Altere os valores no YARN arquivo yarn-site.xml do. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-env | Alterar os valores no ambiente do Zeppelin. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-config | Altere os valores no ZooKeeper arquivo zoo.cfg do. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zookeeper-log4j | Altere os valores no ZooKeeper arquivo log4j.properties. |