As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Amazon EMR versão 4.4.0
Versões do aplicativo 4.4.0
As seguintes aplicações são compatíveis com esta versão: Ganglia
A tabela abaixo lista as versões do aplicativo disponíveis nesta versão da Amazon EMR e as versões do aplicativo nas três EMR versões anteriores da Amazon (quando aplicável).
Para obter um histórico abrangente das versões do aplicativo para cada lançamento da AmazonEMR, consulte os seguintes tópicos:
Informações da versão da aplicação | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
emr-4.4.0 | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AWS SDK para Java | 1.10.27 | 1.10.27 | 1.10.27 | Não rastreadas | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Python | Não rastreadas | Não rastreadas | Não rastreadas | Não rastreadas | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Scala | Não rastreadas | Não rastreadas | Não rastreadas | Não rastreadas | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
AmazonCloudWatchAgent | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Delta | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Flink | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Ganglia | 3.7.2 | 3.7.2 | 3.6.0 | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HBase | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
HCatalog | 1.0.0 | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hadoop | 2.7.1 | 2.7.1 | 2.6.0 | 2.6.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hive | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hudi | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hue | 3.7.1 | 3.7.1 | 3.7.1 | 3.7.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Iceberg | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterEnterpriseGateway | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
JupyterHub | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Livy | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
MXNet | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mahout | 0.11.1 | 0.11.0 | 0.11.0 | 0.11.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.0.1 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Phoenix | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Pig | 0.14.0 | 0.14.0 | 0.14.0 | 0.14.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Presto-Sandbox | 0.136 | 0.130 | 0.125 | 0.119 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Spark | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sqoop-Sandbox | 1.4.6 | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
TensorFlow | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Tez | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Trino (PrestoSQL) | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zeppelin-Sandbox | 0.5.6 | 0.5.5 | 0.5.5 | 0.6.0- SNAPSHOT | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper | - | - | - | - | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
ZooKeeper-Sandbox | - | - | - | - |
Notas de lançamento da versão 4.4.0
As notas de lançamento a seguir incluem informações para a versão EMR 4.4.0 da Amazon.
Data do release: 14 de março de 2016
Recursos
-
Adicionado HCatalog 1.0.0
-
Adicionado o Sqoop-Sandbox 1.4.6
-
Atualizado para Presto 0.136
-
Atualizado para Zeppelin 0.5.6
-
Atualizado para Mahout 0.11.1
-
Habilitada a
dynamicResourceAllocation
por padrão. -
Adicionada uma tabela de todas as classificações de configuração para a versão. Para obter mais informações, consulte a tabela de classificações de configuração em Configurar aplicativos.
Problemas conhecidos das versões anteriores que foram resolvidos
-
Corrigido um problema em que a
maximizeResourceAllocation
configuração não reservava memória suficiente para YARN ApplicationMaster daemons. -
Corrigido um problema encontrado com um personalizadoDNS. Se alguma entrada em
resolve.conf
preceder as entradas personalizadas fornecidas, as entradas personalizadas não serão resolvíveis. Esse comportamento foi afetado por clusters em um em VPC que o servidor de VPC nomes padrão é inserido como a entrada superior emresolve.conf
. -
Corrigido um problema em que o Python padrão mudou para a versão 2.7 e boto não estava instalado para essa versão.
-
Corrigido um problema em que YARN contêineres e aplicativos Spark geravam um arquivo de banco de dados Round Robin (rrd) exclusivo do Ganglia, o que resultava no preenchimento do primeiro disco conectado à instância. Por causa dessa correção, as métricas em nível de YARN contêiner foram desativadas e as métricas em nível de aplicativo do Spark foram desativadas.
-
Corrigido um problema no log pusher em que ele excluía todas as pastas de log vazias. O efeito foi que o Hive não CLI conseguiu se registrar porque o carregador de registros estava removendo a
user
pasta vazia abaixo./var/log/hive
-
Corrigido um problema com as importações do Hive, que afetava o particionamento e resultava em um erro durante a importação.
-
Corrigido um problema em que EMRFS o s3-dist-cp não manipulava adequadamente os nomes de buckets que continham pontos.
-
Foi alterado um comportamento EMRFS para que, em buckets com versionamento ativado, o arquivo
_$folder$
marcador não seja criado continuamente, o que pode contribuir para melhorar o desempenho de buckets com versionamento ativado. -
Alterou o comportamento de EMRFS forma que não use arquivos de instruções, exceto nos casos em que a criptografia do lado do cliente está habilitada. Se desejar excluir os arquivos de instrução enquanto usa a criptografia no lado do cliente, você poderá definir a propriedade emrfs-site.xml
fs.s3.cse.cryptoStorageMode.deleteInstructionFiles.enabled
, como verdadeiro. -
A agregação de YARN registros foi alterada para reter os registros no destino da agregação por dois dias. O destino padrão é o HDFS armazenamento em cluster. Se desejar mudar essa duração, altere o valor de
yarn.log-aggregation.retain-seconds
usando a classificação de configuraçãoyarn-site
quando criar seu cluster. Como sempre, você pode salvar os logs de aplicações no Amazon S3 usando o parâmetrolog-uri
quando criar o cluster.
Patches aplicados
Versões de componentes 4.4.0
Os componentes que a Amazon EMR instala com esta versão estão listados abaixo. Alguns são instalados como parte de pacotes de aplicativos de big data. Outros são exclusivos da Amazon EMR e são instalados para processos e recursos do sistema. Eles normalmente começam com emr
ou aws
. Os pacotes de aplicativos de big data na versão mais recente da Amazon EMR geralmente são a versão mais recente encontrada na comunidade. Disponibilizamos lançamentos comunitários na Amazon o mais EMR rápido possível.
Alguns componentes na Amazon EMR são diferentes das versões da comunidade. Esses componentes tem um rótulo de versão no formulário
. O CommunityVersion
-amzn-EmrVersion
começa em 0. Por exemplo, se um componente de comunidade de código aberto nomeado EmrVersion
myapp-component
com a versão 2.2 tiver sido modificado três vezes para inclusão em diferentes EMR versões da Amazon, sua versão de lançamento será listada como2.2-amzn-2
.
Componente | Version (Versão) | Descrição |
---|---|---|
emr-ddb | 3.0.0 | O conector do Amazon DynamoDB para aplicativos do ecossistema do Hadoop. |
emr-goodies | 2.0.0 | Bibliotecas convenientes para o ecossistema do Hadoop. |
emr-kinesis | 3.1.0 | O conector do Amazon Kinesis para aplicativos do ecossistema do Hadoop. |
emr-s3-dist-cp | 2.2.0 | Cópia distribuída otimizada de aplicativos para o Amazon S3. |
emrfs | 2.4.0 | O conector do Amazon S3 para aplicações do ecossistema do Hadoop. |
ganglia-monitor | 3.7.2 | O agente incorporado do Ganglia para aplicativos do ecossistema do Hadoop, juntamente com o agente de monitoramento do Ganglia. |
ganglia-metadata-collector | 3.7.2 | O coletor de metadados do Ganglia para agregar métricas de agentes de monitoramento do Ganglia. |
ganglia-web | 3.7.1 | O aplicativo web para visualizar as métricas coletadas pelo coletor de metadados do Ganglia. |
hadoop-client | 2.7.1-amzn-1 | Clientes da linha de comando do Hadoop, como 'hdfs', 'hadoop', ou 'yarn'. |
hadoop-hdfs-datanode | 2.7.1-amzn-1 | HDFSserviço em nível de nó para armazenar blocos. |
hadoop-hdfs-library | 2.7.1-amzn-1 | HDFScliente e biblioteca de linha de comando |
hadoop-hdfs-namenode | 2.7.1-amzn-1 | HDFSserviço para rastrear nomes de arquivos e localizações de blocos. |
hadoop-httpfs-server | 2.7.1-amzn-1 | HTTPendpoint para HDFS operações. |
hadoop-kms-server | 2.7.1-amzn-1 | Servidor de gerenciamento de chaves criptográficas baseado no Hadoop. KeyProvider API |
hadoop-mapred | 2.7.1-amzn-1 | MapReduce bibliotecas de mecanismos de execução para executar um MapReduce aplicativo. |
hadoop-yarn-nodemanager | 2.7.1-amzn-1 | YARNserviço para gerenciar contêineres em um nó individual. |
hadoop-yarn-resourcemanager | 2.7.1-amzn-1 | YARNserviço para alocar e gerenciar recursos de cluster e aplicativos distribuídos. |
hcatalog-client | 1.0.0-amzn-3 | O cliente da linha de comando 'hcat' para manipular o hcatalog-server. |
hcatalog-server | 1.0.0-amzn-3 | Fornecimento de serviçosHCatalog, uma camada de gerenciamento de tabelas e armazenamento para aplicativos distribuídos. |
hcatalog-webhcat-server | 1.0.0-amzn-3 | HTTPendpoint fornecendo uma REST interface paraHCatalog. |
hive-client | 1.0.0-amzn-3 | O cliente da linha de comando do Hive. |
hive-metastore-server | 1.0.0-amzn-3 | Serviço para acessar o metastore Hive, um repositório semântico que armazena metadados para operações no Hadoop. SQL |
hive-server | 1.0.0-amzn-3 | O serviço que aceita as consultas do Hive como solicitações da web. |
hue-server | 3.7.1-amzn-5 | O aplicativo web para analisar dados usando aplicativos do ecossistema do Hadoop |
mahout-client | 0.11.1 | A biblioteca de Machine Learning. |
mysql-server | 5.5 | Meu servidor SQL de banco de dados. |
oozie-client | 4.2.0 | O cliente da linha de comando do Oozie. |
oozie-server | 4.2.0 | O serviço que aceita solicitações de fluxo de trabalho do Oozie. |
presto-coordinator | 0.136 | O serviço que aceita consultas e gerencia a execução de consultas entre os presto-workers. |
presto-worker | 0.136 | O serviço que executa partes de uma consulta. |
pig-client | 0.14.0-amzn-0 | O cliente da linha de comando do Pig. |
spark-client | 1.6.0 | Os clientes da linha de comando do Spark. |
spark-history-server | 1.6.0 | A interface de usuário da web para visualizar os eventos registrados por toda a vida útil de um aplicativo Spark concluído. |
spark-on-yarn | 1.6.0 | Mecanismo de execução na memória paraYARN. |
spark-yarn-slave | 1.6.0 | Bibliotecas do Apache Spark necessárias para escravos. YARN |
sqoop-client | 1.4.6 | O cliente da linha de comando do Apache Sqoop. |
webserver | 2.4 | HTTPServidor Apache. |
zeppelin-server | 0.5.6-incubating | O notebook baseado na web que permite a análise de dados interativa. |
4.4.0 classificações de configuração
As classificações de configuração permitem que você personalize aplicações. Eles geralmente correspondem a um XML arquivo de configuração do aplicativo, comohive-site.xml
. Para ter mais informações, consulte Configurar aplicações.
Classificações do emr-4.4.0 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Classificações | Descrição | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
capacity-scheduler | Alterar os valores no arquivo capacity-scheduler.xml do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
core-site | Alterar os valores no arquivo core-site.xml do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
emrfs-site | Altere EMRFS as configurações. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-env | Alterar os valores no ambiente do Hadoop para todos os componentes do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-log4j | Alterar os valores no arquivo log4j.properties do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-encryption-zones | Configure zonas de HDFS criptografia. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hdfs-site | Altere os valores em HDFS's hdfs-site.xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-env | Mude os valores no HCatalog ambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-jndi | Altere os valores em HCatalog jndi.properties. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-server-proto-hive-site | Altere os valores em HCatalog proto-hive-site .xml. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-env | Altere os valores no ambiente ebHCat de HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-log4j | Altere os valores nas propriedades ebHCat log4j.properties de HCatalog W. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hcatalog-webhcat-site | Altere os valores no arquivo webhcat-site.xml de HCatalog W. ebHCat | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-env | Alterar os valores no ambiente do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-exec-log4j | Altere os valores no arquivo hive-exec-log 4j.properties do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-log4j | Alterar os valores no arquivo hive-log4j.properties do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hive-site | Alterar os valores no arquivo hive-site.xml do Hive. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hue-ini | Alterar os valores no arquivo ini do Hue | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-env | Mude os valores no HTTPFS ambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
httpfs-site | Alterar os valores no arquivo httpfs-site.xml do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-acls | Alterar os valores no arquivo kms-acls.xml do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-env | Altere os valores no ambiente HadoopKMS. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-log4j | Alterar os valores no arquivo kms-log4j.properties do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
hadoop-kms-site | Alterar os valores no arquivo kms-site.xml do Hadoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-env | Altere os valores no ambiente do MapReduce aplicativo. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
mapred-site | Altere os valores no arquivo mapred-site.xml do MapReduce aplicativo. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-env | Alterar os valores no ambiente do Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-log4j | Alterar os valores no arquivo oozie-log4j.properties do Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
oozie-site | Alterar os valores no arquivo oozie-site.xml do Oozie. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-properties | Alterar os valores no arquivo pig.properties do Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
pig-log4j | Alterar os valores no arquivo log4j.properties do Pig. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-log | Alterar os valores no arquivo log.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-config | Alterar os valores no arquivo config.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
presto-connector-hive | Alterar os valores no arquivo hive.properties do Presto. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark | Configurações EMR selecionadas pela Amazon para o Apache Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-defaults | Alterar os valores no arquivo spark-defaults.conf do Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-env | Alterar os valores no ambiente do Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-log4j | Alterar os valores no arquivo log4j.properties do Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
spark-metrics | Alterar os valores no arquivo metrics.properties do Spark. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-env | Alterar os valores no ambiente do Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-oraoop-site | Altere os valores no arquivo oraoop-site.xml OraOop do Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
sqoop-site | Alterar os valores no arquivo sqoop-site.xml do Sqoop. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-env | Mude os valores no YARN ambiente. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
yarn-site | Altere os valores no YARN arquivo yarn-site.xml do. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
zeppelin-env | Alterar os valores no ambiente do Zeppelin. |