亚马逊EMR版本 5.30.0 - Amazon EMR

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

亚马逊EMR版本 5.30.0

5.30.0 应用程序版本

此版本支持以下应用程序:Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, ZeppelinZooKeeper.

下表列出了此版本的 Amazon 中可用的应用程序版本EMR和前三个亚马逊版本中的应用程序EMR版本(如果适用)。

要全面了解每个 Amazon 版本的应用程序版本历史记录EMR,请参阅以下主题:

应用程序版本信息
emr-5.30.0 emr-5.29.0 emr-5.28.1 emr-5.28.0
AWS SDK适用于 Java 1.11.7591.11.6821.11.6591.11.659
Python 2.7、3.72.7、3.62.7、3.62.7、3.6
Scala 2.11.122.11.122.11.122.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.10.01.9.11.9.01.9.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.101.4.101.4.10
HCatalog2.3.62.3.62.3.62.3.6
Hadoop2.8.52.8.52.8.52.8.5
Hive2.3.62.3.62.3.62.3.6
Hudi0.5.2-incubating0.5.0-incubating0.5.0-incubating0.5.0-incubating
Hue4.6.04.4.04.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.0.01.0.01.0.0
Livy0.7.00.6.00.6.00.6.0
MXNet1.5.11.5.11.5.11.5.1
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.1.05.1.05.1.0
Phoenix4.14.34.14.34.14.34.14.3
Pig0.17.00.17.00.17.00.17.0
Presto0.2320.2270.2270.227
Spark2.4.52.4.42.4.42.4.4
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.14.01.14.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino(Prest SQL o) - - - -
Zeppelin0.8.20.8.20.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

5.30.0 发布说明

以下发行说明包含 Amazon EMR 版本 5.30.0 的信息。更改与 5.29.0 有关。

首次发布日期:2020 年 5 月 13 日

上次更新日期:2020 年 6 月 25 日

升级
  • 已升级 AWS SDK for Java 到 1.11.759 版本

  • 已将 Amazon SageMaker Spark 升级SDK到 1.3.0 版

  • 已将 R EMR ecord Server 升级到 1.6.0 版

  • 已将 Flink 升级到版本 1.10.0

  • 已将 Ganglia 升级到版本 3.7.2

  • 已升级HBase到 1.4.13 版

  • 已将 Hudi 升级到版本 0.5.2-incubating

  • 已将 Hue 升级到版本 4.6.0

  • 已升级 JupyterHub 到 1.1.0 版

  • 已将升级 Livy 到版本 0.7.0-incubating

  • 已将 Oozie 升级到版本 5.2.0

  • 已将 Presto 升级到版本 0.232

  • 已将 Spark 升级到版本 2.4.5

  • 升级后的连接器和驱动程序:亚马逊 Glue Connector 1.12.0;亚马逊 Kinesis Connector 3.5.0;DynamoDB 连接器 4.14.0 EMR

新功能
  • EMR笔记本-与使用 5.30.0 创建的EMR集群一起使用时,EMR笔记本内核在集群上运行。这可以提高笔记本的性能,并允许您安装和自定义内核。您还可以在集群主节点上安装 Python 库。有关更多信息,请参阅《EMR管理指南》中的安装和使用内核和库

  • 托管扩展 — 在 Amazon 5.30.0 及更高EMR版本中,您可以启用EMR托管扩展,从而根据工作负载自动增加或减少集群中的实例或单元数量。Amazon 会EMR持续评估集群指标,以做出扩展决策,从而优化集群的成本和速度。有关更多信息,请参阅 Amazon EMR 管理指南中的扩展集群资源

  • 加密存储在 Amazon S3 中的日志文件 — 在 Amazon 5.30.0 及更高EMR版本中,您可以使用 AWS KMS 客户托管密钥加密存储在 Amazon S3 中的日志文件。有关更多信息,请参阅《亚马逊EMR管理指南》中的加密存储在 Amazon S3 中的日志文件

  • 亚马逊 Linux 2 支持 — 在 5.30.0 及更高EMR版本中,EMR usesAmazon Linux 2 操作系统。新的自定义AMIs(Amazon 机器映像)必须基于 theAmazon Linux 2 AMI。有关更多信息,请参阅使用自定义AMI

  • Presto Graceful Auto Scale — 使用 5.30.0 的EMR集群可以设置自动缩放超时时间,让 Presto 任务有时间在节点停用之前完成运行。有关更多信息,请参阅 使用采用 Graceful Decommission 的 Presto 自动扩展配置

  • 使用新的分配策略选项创建舰队实例 — 5.12.1 及更高EMR版本中提供了新的分配策略选项。它加快了集群预置、提高了 Spot 分配的准确性并减少了竞价型实例中断。需要更新非默认EMR服务角色。请查看配置实例集

  • sudo systemctl stop 和 sudo systemctl 启动命令 — 在 5.30.0 及更高EMR版本中, useAmazon Linux 2 操作系统使用和命令来重启服务。EMR sudo systemctl stop sudo systemctl start有关更多信息,请参阅如何在 Amazon 中重启服务EMR?

更改、增强功能和解决的问题
  • EMR默认情况下,版本 5.30.0 不安装 Ganglia。您可以在创建集群时明确选择 Ganglia 进行安装。

  • Spark 性能优化。

  • Presto 性能优化。

  • Python 3 是亚马逊 5.30.0 及更高EMR版本的默认版本。

  • 用于私有子网中服务访问的默认托管安全组已使用新规则进行更新。如果使用自定义安全组进行服务访问,则必须包含与默认托管安全组相同的规则。有关更多信息,请参阅 EMRAmazon 服务访问托管安全组(私有子网)。如果您为 Amazon 使用自定义服务角色EMR,则必须向授予权限,ec2:describeSecurityGroups这样EMR才能验证安全组的创建是否正确。如果您使用 EMR_DefaultRole,则此权限已包含在默认托管式策略中。

已知问题
  • 降低旧版本的 “最大打开文件数” 限制 AL2 [在新版本中已修复]。亚马逊EMR版本:emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 基于较旧版本的 Linux ofAmazon 2 ()AL2,当使用默认版本创建亚马逊集群时,“最大打开文件数” 的用户限制较低。EMR AMI亚马逊EMR发布的版本为5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0及更高版本,包括具有更高的 “最大打开文件数” 设置的永久修复。如果使用打开文件数限制较低的发行版,会在提交 Spark 任务时导致“Too many open files”(打开的文件过多)错误。在受影响的版本中,亚马逊EMR默AMI认 “最大打开文件数” 的ulimit设置为4096,低于Linux 2中的65536个文件限制。 latestAmazon AMISpark 驱动程序和执行程序尝试打开超过 4096 个文件时,“打开的最大文件数”的较低 ulimit 设置会导致 Spark 任务失败。为了解决这个问题,Amazon EMR 提供了一个引导操作 (BA) 脚本,可以在创建集群时调整ulimit设置。

    如果您使用的是无法永久修复此问题的旧EMR版 Amazon,则可以使用以下解决方法将实例控制器 ulimit 明确设置为最多 65536 个文件。

    从命令行显式设置 ulimit
    1. 编辑 /etc/systemd/system/instance-controller.service,将以下参数添加到 Service (服务) 部分。

      LimitNOFILE=65536

      LimitNPROC=65536

    2. 重启 InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    使用引导操作 (BA) 设置 ulimit

    您还可以在创建集群时使用引导操作(BA)脚本将实例控制器 ulimit 配置为 65536 个文件。

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • 托管扩展

    在未安装 Presto 的 5.30.0 和 5.30.1 的集群上进行托管扩展操作可能会导致应用程序故障或导致统一的实例组或实例集处于 ARRESTED 状态,尤其是在缩减操作之后快速执行扩展操作时。

    解决方法是,即使您的任务不需要 Presto,也可以在创建包含亚马逊EMR版本 5.30.0 和 5.30.1 的集群时选择 Presto 作为要安装的应用程序。

  • 具有多个主节点的集群和 Kerberos 身份验证中的已知问题

    如果您在 Amazon 5.20.0 及更高EMR版本中运行具有多个主节点和 Kerberos 身份验证的集群,则在集群运行一段时间后,集群操作可能会遇到问题,例如缩小规模或步骤提交。具体时间段取决于您定义的 Kerberos 票证有效期。缩减问题会影响您提交的自动缩减和显式缩减请求。其它集群操作也可能会受到影响。

    解决办法:

    • SSH以hadoop用户身份访问具有多个主节点的EMR群集的主节点。

    • 运行以下命令,为 hadoop 用户续订 Kerberos 票证。

      kinit -kt <keytab_file> <principal>

      通常情况下,keytab 文件位于 /etc/hadoop.keytab,而 principal 为 hadoop/<hostname>@<REALM> 格式。

    注意

    此解决方法将在 Kerberos 票证有效期内生效。默认情况下,此持续时间为 10 个小时,但可以通过 Kerberos 设置进行配置。Kerberos 票证过期后,您必须重新运行上述命令。

  • Hue 4.6.0 的默认数据库引擎是SQLite,当您尝试将 Hue 与外部数据库配合使用时,这会导致出现问题。若要解决此问题,请在您的 hue-ini 配置分类中将 engine 设置为 mysql。此问题已在亚马逊EMR版本 5.30.1 中修复。

  • 当你使用带有 Hive 分区位置格式的 Spark 来读取 Amazon S3 中的数据,并在亚马逊EMR版本 5.30.0 到 5.36.0 和 6.2.0 到 6.9.0 上运行 Spark 时,你可能会遇到一个问题,导致集群无法正确读取数据。如果您的分区具有以下所有特征,会发生这种情况:

    • 从同一个表扫描两个或多个分区。

    • 至少有一个分区目录路径是至少一个其他分区目录路径的前缀,例如,s3://bucket/table/p=as3://bucket/table/p=a b 的前缀。

    • 另一个分区目录中前缀之后的第一个字符的值为 UTF -8,小于该/字符 (U+002F)。例如,在 s3://bucket/table/p=a b 中,a 和 b 之间出现的空格字符 (U+0020) 就属于此类。请注意,还有其他 14 个非控制字符:!"#$%&‘()*+,-。有关更多信息,请参阅 UTF-8 编码表和 Unicode 字符

    解决方法是在 spark-defaults 分类中将 spark.sql.sources.fastS3PartitionDiscovery.enabled 配置设置为 false

5.30.0 组件版本

下面列出了 Amazon 随此版本EMR安装的组件。一些组件作为大数据应用程序包的一部分安装。其他则是 Amazon 独有的EMR,是为系统流程和功能而安装的。它们通常以 emraws 开头。Amazon 最新EMR版本中的大数据应用程序包通常是社区中的最新版本。我们会EMR尽快在 Amazon 上发布社区版本。

Amazon 中的某些组件与社区版本EMR不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的发行版标注。EmrVersion 从 0 开始。例如,如果myapp-component以 2.2 版本命名的开源社区组件经过三次修改以包含在不同的 Amazon EMR 版本中,则其发布版本将列为2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk1.3.0亚马逊 SageMaker Spark SDK
emr-ddb4.14.0适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies2.13.0适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis3.5.0适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-notebook-env1.0.0适用于 emr notebook 的 Conda env
emr-s3-dist-cpemrfs针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select1.5.0EMRS3Select 连接器
emrfs2.40.0适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client1.10.0Apache Flink 命令行客户端脚本和应用程序。
ganglia-monitor3.7.2适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector3.7.2用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web3.7.1用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client2.8.5-amzn-6Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode2.8.5-amzn-6HDFS用于存储区块的节点级服务。
hadoop-hdfs-library2.8.5-amzn-6HDFS命令行客户端和库
hadoop-hdfs-namenode2.8.5-amzn-6HDFS用于跟踪文件名和区块位置的服务。
hadoop-hdfs-journalnode2.8.5-amzn-6HDFS用于管理 HA 集群上的 Hadoop 文件系统日志的服务。
hadoop-httpfs-server2.8.5-amzn-6HTTPHDFS操作端点。
hadoop-kms-server2.8.5-amzn-6基于 Hadoop 的加密密钥管理服务器。 KeyProvider API
hadoop-mapred2.8.5-amzn-6MapReduce 用于运行 MapReduce 应用程序的执行引擎库。
hadoop-yarn-nodemanager2.8.5-amzn-6YARN用于管理单个节点上的容器的服务。
hadoop-yarn-resourcemanager2.8.5-amzn-6YARN用于分配和管理群集资源和分布式应用程序的服务。
hadoop-yarn-timeline-server2.8.5-amzn-6用于检索YARN应用程序的当前和历史信息的服务。
hbase-hmaster1.4.13为负责协调区域和执行管理命令的HBase集群提供服务。
hbase-region-server1.4.13为一个或多个HBase地区提供服务的服务。
hbase-client1.4.13HBase命令行客户端。
hbase-rest-server1.4.13为其提供RESTfulHTTP终端节点的服务HBase。
hbase-thrift-server1.4.13为其提供 Thrift 端点的HBase服务。
hcatalog-client2.3.6-amzn-2用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server2.3.6-amzn-2提供服务HCatalog,为分布式应用程序提供表和存储管理层。
hcatalog-webhcat-server2.3.6-amzn-2HTTP端点为其提供REST接口HCatalog。
hive-client2.3.6-amzn-2Hive 命令行客户端。
hive-hbase2.3.6-amzn-2Hive-hbase 客户端。
hive-metastore-server2.3.6-amzn-2用于访问 Hive 元数据仓的服务,这是一个语义存储库,用于存储 Hadoop 操作SQL的元数据。
hive-server22.3.6-amzn-2用于将 Hive 查询作为 Web 请求接受的服务。
hudi0.5.2-incubating增量处理框架,以支持低延迟和高效率的数据管道。
hudi-presto0.5.2-incubating用于运行 Presto 以及 Hudl 的捆绑库。
hue-server4.6.0用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub1.1.0Jupyter notebook 的多用户服务器
livy-server0.7.0-incubatingREST用于与 Apache Spark 交互的接口
nginx1.12.1nginx [engine x] HTTP 是一个反向代理服务器
mahout-client0.13.0用于机器学习的库。
mxnet1.5.1用于深度学习的灵活的、可扩展且高效的库。
mariadb-server5.5.64我的SQL数据库服务器。
nvidia-cuda9.2.88Nvidia 驱动程序和 Cuda 工具包
oozie-client5.2.0Oozie 命令行客户端。
oozie-server5.2.0用于接受 Oozie 工作流请求的服务。
opencv3.4.0开源计算机视觉库。
phoenix-library4.14.3--1.4 HBase服务器和客户端的 phoenix 库
phoenix-query-server4.14.3--1.4 HBase一款轻量级服务器,提供JDBC对 Avatica 的访问权限以及协议缓冲区和JSON格式访问权限 API
presto-coordinator0.232用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker0.232用于执行查询的各个部分的服务。
presto-client0.232Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。
pig-client0.17.0Pig 命令行客户端。
r3.4.3用于统计计算的 R 项目
ranger-kms-server1.2.0Apache Ranger 密钥管理系统
spark-client2.4.5-amzn-0Spark 命令行客户端。
spark-history-server2.4.5-amzn-0用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn2.4.5-amzn-0的内存中执行引擎。YARN
spark-yarn-slave2.4.5-amzn-0YARN从属服务器需要的 Apache Spark 库。
sqoop-client1.4.7Apache Sqoop 命令行客户端。
tensorflow1.14.0TensorFlow 用于高性能数值计算的开源软件库。
tez-on-yarn0.9.2tez YARN 应用程序和库。
webserver2.4.25+Apache HTTP 服务器。
zeppelin-server0.8.2支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server3.4.14用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client3.4.14ZooKeeper 命令行客户端。

5.30.0 配置分类

配置分类允许您自定义应用程序。它们通常对应于应用程序的配置XML文件,例如hive-site.xml。有关更多信息,请参阅 配置应用程序

emr-5.30.0 分类
分类 描述

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

container-log4j

更改 Hadoop 的 container-log4j.prop YARN erties 文件中的值。

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

emrfs-site

更改EMRFS设置。

flink-conf

更改 flink-conf.yaml 设置。

flink-log4j

更改 Flink log4j.properties 设置。

flink-log4j-yarn-session

更改 Flink log4 j-yarn-session .properties 设置。

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

hadoop-ssl-server

更改 hadoop ssl 服务器配置

hadoop-ssl-client

更改 hadoop ssl 客户端配置

hbase

亚马逊EMR精心策划的 Apache 设置。HBase

hbase-env

更改环境HBase中的值。

hbase-log4j

更改 hbase-HBase log4j.properties 文件中的值。

hbase-metrics

更改 hadoop-metrics2-h HBase base.properties 文件中的值。

hbase-policy

更改HBase的 hbase-policy.xml 文件中的值。

hbase-site

更改HBase的 hbase-site.xml 文件中的值。

hdfs-encryption-zones

配置HDFS加密区域。

hdfs-site

更改的 hdfs-site.xml HDFS 中的值。

hcatalog-env

更改环境HCatalog中的值。

hcatalog-server-jndi

更改HCatalog的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 proto-hive-site .x HCatalog ml 中的值。

hcatalog-webhcat-env

更改 HCatalog W 环境ebHCat中的值。

hcatalog-webhcat-log4j2

更改 HCatalog W ebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

更改 HCatalog W ebHCat 的 webhcat-site.xml 文件中的值。

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

hive-env

更改 Hive 环境中的值。

hive-exec-log4j2

更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

hive-site

更改 Hive 的 hive-site.xml 文件中的值

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

hue-ini

更改 Hue 的 ini 文件中的值

httpfs-env

更改HTTPFS环境中的值。

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

hadoop-kms-env

在 Hadoop KMS 环境中更改值。

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

hudi-env

更改 Hudi 环境中的值。

jupyter-notebook-conf

更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。

jupyter-hub-conf

更改 JupyterHubs的 jupyterhub_config.py 文件中的值。

jupyter-s3-conf

配置 Jupyter notebook S3 持久性。

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

livy-conf

更改 Livy 的 livy.conf 文件中的值。

livy-env

更改 Livy 环境中的值。

livy-log4j

更改 Livy log4j.properties 设置。

mapred-env

更改 MapReduce 应用程序环境中的值。

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

oozie-env

更改 Oozie 的环境中的值。

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

pig-env

更改 Pig 环境中的值。

pig-properties

更改 Pig 的 pig.properties 文件中的值。

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

presto-log

更改 Presto 的 log.properties 文件中的值。

presto-config

更改 Presto 的 config.properties 文件中的值。

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

presto-node

更改 Presto 的 node.properties 文件中的值。

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

ranger-kms-site

更改 Ran ranger-kms-site KMS ger .xml 文件中的值。

ranger-kms-env

更改游侠KMS环境中的值。

ranger-kms-log4j

更改 Ranger 的 kms-log4j.properties 文件中的值。KMS

ranger-kms-db-ca

更改 S3 上我与 Ranger SQL SSL KMS 连接的 CA 文件值。

recordserver-env

更改EMR RecordServer 环境中的值。

recordserver-conf

更改服务器.proper EMR RecordServer ties 文件中的值。

recordserver-log4j

更改EMR RecordServer的 log4j.properties 文件中的值。

spark

亚马逊EMR精心策划的 Apache Spark 设置。

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

spark-env

更改 Spark 环境中的值。

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

sqoop-env

更改 Sqoop 的环境中的值。

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

yarn-env

更改YARN环境中的值。

yarn-site

更改YARN的 yarn-site.xml 文件中的值。

zeppelin-env

更改 Zeppelin 环境中的值。

zookeeper-config

更改 ZooKeeper的 zoo.cfg 文件中的值。

zookeeper-log4j

更改 ZooKeeper的 log4j.properties 文件中的值。