Amazon EMR 发行版 6.3.0
6.3.0 应用程序版本
此版本支持以下应用程序:Flink
下表列出了此版本的 Amazon EMR 中提供的应用程序版本以及前三个 Amazon EMR 发行版中的应用程序版本(若适用)。
有关每个发行版的 Amazon EMR 的应用程序版本的全面历史记录,请参见以下主题:
emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | |
---|---|---|---|---|
AWS SDK for Java | 1.11.977 | 1.11.880 | 1.11.880 | 1.11.828 |
Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 |
Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.6 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 |
Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | - |
JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 |
Livy | 0.7.0 | 0.7.0 | 0.7.0 | 0.7.0 |
MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.245.1 | 0.238.3 | 0.238.3 | 0.232 |
Spark | 3.1.1 | 3.0.1 | 3.0.1 | 3.0.0 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | 350 | 343 | 343 | 338 |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
6.3.0 发布说明
以下发布说明包括有关 Amazon EMR 发行版 6.3.0 的信息。更改与 6.2.0 有关。
首次发布日期:2021 年 5 月 12 日
上次更新日期:2021 年 8 月 9 日
受支持的应用程序
AWS SDK for Java 1.11.977
CloudWatch Sink 2.1.0
DynamoDB 连接器 4.16.0
EMRFS 2.46.0
Amazon EMR Goodies 3.2.0
Amazon EMR Kinesis 连接器 3.5.0 版
Amazon EMR 记录服务器版本 2.0.0
Amazon EMR Scripts 2.5.0
Flink 1.12.1
Ganglia 3.7.2
AWS Glue Hive Metastore Client 3.2.0
Hadoop 3.2.1-amzn-3
HBase 2.2.6-amzn-1
HBase-operator-tools 1.0.0
HCatalog 3.1.2-amzn-0
Hive 3.1.2-amzn-4
Hudi 0.7.0-amzn-0
Hue 4.9.0
Java JDK Corretto-8.282.08.1(内部1.8.0_282-b08)
JupyterHub 1.2.0
Livy 0.7.0-incubating
MXNet 1.7.0
Oozie 5.2.1
Phoenix 5.0.0
Pig 0.17.0
Presto 0.245.1-amzn-0
PrestoSQL 350
Apache Ranger KMS(多主节点透明加密)版本 2.0.0
ranger-plugins 2.0.1-amzn-0
ranger-s3-plugin 1.1.0
SageMaker Spark SDK 1.4.1
Scala 2.12.10(OpenJDK 64 位服务器 VM,Java 1.8.0_282)
Spark 3.1.1-amzn-0
spark-rapids 0.4.1
Sqoop 1.4.7
TensorFlow 2.4.1
tez 0.9.2
Zeppelin 0.9.0
Zookeeper 3.4.14
连接器和驱动程序:DynamoDB 连接器 4.16.0
新功能
Amazon EMR 支持 Amazon S3 接入点,这是 Amazon S3 的一项功能,可让您轻松管理共享数据湖的访问。使用 Amazon S3 接入点别名,您可以在 Amazon EMR 上大规模简化数据访问。您可以将 Amazon S3 接入点与所有版本的 Amazon EMR 一起使用,在 Amazon EMR 可用的所有 AWS 区域无需额外费用。要了解有关 Amazon S3 访问点和访问点别名的详细信息,请参阅《Amazon S3 用户指南》中的为接入点使用存储桶式别名。
新的
DescribeReleaseLabel
和ListReleaseLabel
API 参数提供 Amazon EMR 发行版标注详细信息。您可以以编程方式列出运行 API 请求的区域中提供的版本,并列出特定 Amazon EMR 发行版标注的可用应用程序。发行版标签参数还列出了支持指定应用程序(如 Spark)的 Amazon EMR 发行版。以编程方式启动 Amazon EMR 集群时会用到此信息。例如,您可以使用ListReleaseLabel
结果中的最新发行版启动集群。有关更多信息,请参阅《Amazon EMR API 参考》中的 DescribeReleaseLabel 和 ListReleaseLabels。借助 Amazon EMR 6.3.0,您可以启动与 Apache Ranger 在本地集成的集群。Apache Ranger 是一个开源框架,可跨 Hadoop 平台启用、监控和管理全面的数据安全。有关更多信息,请参阅 Apache Ranger
。通过本机集成,您可以自带 Apache Ranger,在 Amazon EMR 上强制实施精细数据访问控制。请参阅《Amazon EMR 管理指南》中的将 Amazon EMR 与 Apache Ranger 集成。 限定范围的托管式策略:为了符合AWS最佳实践,Amazon EMR 引入了 v2 EMR 范围的默认托管式策略,来替代即将弃用的策略。请参阅 Amazon EMR 托管式策略。
实例元数据服务(IMDS)V2 支持状态:对于 Amazon EMR 6.2 或更高版本,Amazon EMR 组件对所有 IMDS 调用都使用 IMDSv2。对于应用程序代码中的 IMDS 调用,您可以同时使用 IMDSv1 和 IMDSv2,或者将 IMDS 配置为仅使用 IMDSv2,以提高安全性。如果您在早于 Amazon EMR 6.x 的发行版中禁用 IMDSv1,则会导致集群启动失败。
更改、增强功能和解决的问题
-
此版本旨在修复 Amazon EMR Scaling 无法成功纵向扩展/缩减集群或导致应用程序故障时出现的问题。
修复了当 Amazon EMR 集群上的进程守护程序正在进行运行状况检查活动(例如收集 YARN 节点状态和 HDFS 节点状态)时,针对高利用率的大型集群的扩展请求失败的问题。之所以发生这种情况,是因为集群上的进程守护程序无法将节点的运行状况数据传递给内部 Amazon EMR 组件。
改进了 EMR 集群上的进程守护程序,以便在重用 IP 地址时正确跟踪节点状态,从而提高扩缩操作期间的可靠性。
SPARK-29683
。修复了集群缩减期间出现任务失败的问题,因为 Spark 假定所有可用节点都被拒绝列出。 YARN-9011
。修复了集群尝试纵向扩展或缩减时,由于 YARN 停用中的争用条件导致任务失败的问题。 通过确保 Amazon EMR 集群上的进程守护程序和 YARN/HDFS 之间的节点状态始终一致,解决了集群扩展期间步骤或任务失败的问题。
修复了已启用 Kerberos 身份验证的 Amazon EMR 集群的诸如缩减和步骤提交等集群操作失败的问题。这是因为 Amazon EMR 集群上的进程守护程序没有续订 Kerberos 票证,而该票证是与主节点上运行的 HDFS/YARN 进行安全通信所必需的。
较新的 Amazon EMR 发行版修复了 Amazon EMR 中较早版本的 AL2 上“最大打开文件数”限制较低的问题。Amazon EMR 发行版 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 及更高版本现在用更高的“最大打开文件数”设置永久修复了此问题。
Spark SQL UI 说明了如何在 Spark 3.1
中将默认模式从 extended
更改为formatted
。Amazon EMR 已将其恢复为extended
,以在 Spark SQL UI 中包含逻辑计划信息。可以通过将spark.sql.ui.explainMode
设置为formatted
进行还原。-
以下提交是从 Spark 主分支逆向移植的。
– [SPARK-34752]
[BUILD] Bump Jetty 升级到 9.4.37,解决了 CVE-2020-27223 问题。 – [SPARK-34534]
修复了使用 FetchShuffleBlocks 获取数据块时的数据块 ID 顺序。 – [SPARK-34681]
[SQL] 修复了在非同等条件下构建左侧时完整的外部混乱哈希连接的错误。 – [SPARK-34497]
[SQL] 修复了内置 JDBC 连接提供程序,以恢复 JVM 安全上下文更改。 为了提高与 Nvidia Spark RAPID 插件的互操作性,添加了解决以下问题的解决方法:在禁用自适应查询执行的情况下,使用 Nvidia Spark RAPID 时阻止动态分区修剪触发,请参阅 RAPIDS 问题 #1378
和 RAPIDS 问题 ##1386 。有关新配置的详细信息 spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse
,请参阅 RAPIDS 问题 ##1386。文件输出提交程序默认算法已在开源 Spark 3.1 中将 v2 算法更改为 v1 算法。有关更多信息,请参阅 Amazon EMR 优化 Spark 性能 – 动态分区修剪
。 Amazon EMR 恢复为 v2 算法(早于 Amazon EMR 6.x 的发行版中使用默认算法),以防止性能下降。要恢复开源 Spark 3.1 行为,请将
spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version
设置为1
。开源 Spark 进行了此更改,因为文件输出提交程序算法 v2 中的任务提交不是原子操作,在某些情况下可能会导致输出数据正确性问题。不过,算法 v1 中的任务提交也不是原子操作。在某些情况下,任务提交会包括在重命名之前执行的删除。这可能会导致出现无提示的数据正确性问题。修复了早期 Amazon EMR 发行版中的托管扩展问题,并对托管扩展进行了改进,从而显著降低了应用程序故障率。
在每个新集群上已安装了AWS Java SDK Bundle。这是一个包含所有服务 SDK 及其依赖项的单个 jar,而不是单个组件 jar。有关更多信息,请参阅 Java SDK Bundled Dependency
。
已知问题
对于 Amazon EMR 6.3.0 和 6.2.0 私有子网集群,您不能访问 Ganglia Web UI。您将收到“access denied (403)”错误。其它 Web UI(如 Spark、Hue、JupyterHub、Zeppelin、Livy 和 Tez)可正常运行。公有子网集群上的 Ganglia Web UI 访问也正常工作。要解决该问题,请在具有
sudo systemctl restart httpd
的主节点上重新启动 httpd 服务。此问题已在 Amazon EMR 6.4.0 中得到修复。启用 AWS Glue 数据目录时,使用 Spark 访问具有空字符串位置 URI 的 AWS Glue 数据库可能会失败。这种情况发生在早期的 Amazon EMR 发行版中,但 SPARK-31709(https://issues.apache.org/jira/browse/SPARK-31709)使其可应用于更多案例。例如,当在位置 URI 为空字符串的默认 AWS Glue 数据库内创建表时,
spark.sql("CREATE TABLE mytest (key string) location '/table_path';")
会失败并显示消息“Cannot create a Path from an empty string(无法从空字符串创建路径)”。要解决此问题,请手动设置 AWS Glue 数据库的位置 URI,然后使用 Spark 在这些数据库中创建表。在 Amazon EMR 6.3.0 中,PrestoSQL 已从版本 343 升级到版本 350。开源中有两个与安全相关的更改与此版本更改相关。未定义表、架构或会话属性规则时,基于文件的目录访问控制已从
deny
更改为allow
。此外,基于文件的系统访问控制已更改为支持目录规则未定义的文件。在这种情况下,允许完全访问目录。有关更多信息,请参阅发行版 344(2020 年 10 月 9 日)
。 请注意,所有人都可读取 Hadoop 用户目录(/home/hadoop)。它具有 Unix 755(drwxr-xr-x)目录权限,允许 Hive 等框架进行读取访问。您可以将文件放入 /home/hadoop 及其子目录中,但请注意这些目录的权限,做好对敏感信息的保护。
-
较早版本的 AL2 上“最大打开文件数”限制较低[此问题已在较新的发行版中修复]。Amazon EMR 发行版 emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 基于较早版本的 Amazon Linux 2(AL2)。使用原定设置 AMI 创建 Amazon EMR 集群时,这些版本的“最大打开文件数”ulimit 设置较低。Amazon EMR 发行版 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 及更高版本使用更高的“最大打开文件数”设置永久修复了此问题。如果使用打开文件数限制较低的发行版,会在提交 Spark 任务时导致“Too many open files”(打开的文件过多)错误。在受影响的发行版中,Amazon EMR 原定设置 AMI 的原定设置“最大打开文件数”ulimit 为 4096,而最新版 Amazon Linux 2 AMI 中的文件限制数为 65536。Spark 驱动程序和执行程序尝试打开超过 4096 个文件时,“打开的最大文件数”的较低 ulimit 设置会导致 Spark 任务失败。要修复此问题,Amazon EMR 使用一个引导操作(BA)脚本,用于在创建集群时调整 ulimit 设置。
如果您使用没有永久修复此问题的较早版本的 Amazon EMR,则可以通过下面的解决方法,显式将实例控制器 ulimit 设置为最多 65536 个文件。
从命令行显式设置 ulimit
编辑
/etc/systemd/system/instance-controller.service
,将以下参数添加到 Service (服务) 部分。LimitNOFILE=65536
LimitNPROC=65536
重新启动 InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
使用引导操作 (BA) 设置 ulimit
您还可以在创建集群时使用引导操作(BA)脚本将实例控制器 ulimit 配置为 65536 个文件。
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
重要
运行 Amazon Linux 或 Amazon Linux 2 亚马逊机器映像(AMI)的 EMR 集群使用默认的 Amazon Linux 行为,且不会自动下载和安装需要重新启动的重要关键内核更新。这与运行默认 Amazon Linux AMI 的其它 Amazon EC2 实例的行为相同。如果需要重新启动的新 Amazon Linux 软件更新(例如内核、NVIDIA 和 CUDA 更新)在 Amazon EMR 版本发布后可用,则运行默认 AMI 的 EMR 集群实例不会自动下载和安装这些更新。要获取内核更新,您可以自定义 Amazon EMR AMI,以使用最新的 Amazon Linux AMI。
要将 Spark 操作与 Apache Oozie 一起使用,必须将以下配置添加到 Oozie
workflow.xml
文件中。否则,Oozie 启动的 Spark 执行器的类路径中将丢失几个诸如 Hadoop 和 EMRFS 之类的关键库。<spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
当您将 Spark 与 Hive 分区位置格式化结合使用以读取 Amazon S3 中的数据,并在 Amazon EMR 版本 5.30.0 至 5.36.0 以及 6.2.0 至 6.9.0 上运行 Spark 时,可能会遇到导致集群无法正确读取数据的问题。如果您的分区具有以下所有特征,会发生这种情况:
-
从同一个表扫描两个或多个分区。
-
至少有一个分区目录路径是至少一个其他分区目录路径的前缀,例如,
s3://bucket/table/p=a
是s3://bucket/table/p=a b
的前缀。 -
另一个分区目录中前缀后面的第一个字符的 UTF-8 值小于
/
字符 (U+002F)。例如,在s3://bucket/table/p=a b
中,a 和 b 之间出现的空格字符 (U+0020) 就属于此类。请注意,还有其他 14 个非控制字符:!"#$%&‘()*+,-
。有关更多信息,请参阅 UTF-8 encoding table and Unicode characters(UTF-8 编码表和 Unicode 字符)。
解决方法是在
spark-defaults
分类中将spark.sql.sources.fastS3PartitionDiscovery.enabled
配置设置为false
。-
6.3.0 组件版本
下面列出了 Amazon EMR 随此发行版一起安装的组件。一些组件作为大数据应用程序包的一部分安装。其它组件是 Amazon EMR 独有的,并且已为系统流程和功能安装这些组件。它们通常以 emr
或 aws
开头。最新的 Amazon EMR 发行版中的大数据应用程序包通常是在社区中找到的最新版本。我们会尽快在 Amazon EMR 中提供社区发行版。
Amazon EMR 中的某些组件与社区版本不同。这些组件具有以下形式的
的发行版标注。CommunityVersion
-amzn-EmrVersion
从 0 开始。例如,假设已对名为 EmrVersion
myapp-component
的版本 2.2 的开源社区组件进行三次修改,以包含在不同的 Amazon EMR 发行版中,则其发行版将为 2.2-amzn-2
。
组件 | 版本 | 描述 |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark 开发工具包 |
emr-ddb | 4.16.0 | 适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。 |
emr-goodies | 3.2.0 | 适用于 Hadoop 生态系统的方便易用的库。 |
emr-kinesis | 3.5.0 | 适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。 |
emr-notebook-env | 1.2.0 | 适用于 EMR Notebooks(可提供 jupyter 企业网关)的 Conda env |
emr-s3-dist-cp | 2.18.0 | 针对 Amazon S3 优化的分布式复制应用程序。 |
emr-s3-select | 2.1.0 | EMR S3 Select 连接器 |
emrfs | 2.46.0 | 适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。 |
flink-client | 1.12.1 | Apache Flink 命令行客户端脚本和应用程序。 |
flink-jobmanager-config | 1.12.1 | 为 Apache Flink JobManager 管理 EMR 节点上的资源。 |
ganglia-monitor | 3.7.2 | 适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。 |
ganglia-metadata-collector | 3.7.2 | 用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。 |
ganglia-web | 3.7.1 | 用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。 |
hadoop-client | 3.2.1-amzn-3 | Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。 |
hadoop-hdfs-datanode | 3.2.1-amzn-3 | 用于存储数据块的 HDFS 节点级服务。 |
hadoop-hdfs-library | 3.2.1-amzn-3 | HDFS 命令行客户端和库 |
hadoop-hdfs-namenode | 3.2.1-amzn-3 | 用于跟踪文件名和数据块位置的 HDFS 服务。 |
hadoop-hdfs-journalnode | 3.2.1-amzn-3 | 用于管理 HA 集群上的 Hadoop 文件系统日志的 HDFS 服务。 |
hadoop-httpfs-server | 3.2.1-amzn-3 | 用于 HDFS 操作的 HTTP 终端节点。 |
hadoop-kms-server | 3.2.1-amzn-3 | 基于 Hadoop 的 KeyProvider API 的加密密钥管理服务器。 |
hadoop-mapred | 3.2.1-amzn-3 | 用于运行 MapReduce 应用程序的 MapReduce 执行引擎库。 |
hadoop-yarn-nodemanager | 3.2.1-amzn-3 | 用于管理单个节点上的容器的 YARN 服务。 |
hadoop-yarn-resourcemanager | 3.2.1-amzn-3 | 用于分配和管理集群资源与分布式应用程序的 YARN 服务。 |
hadoop-yarn-timeline-server | 3.2.1-amzn-3 | 用于检索 YARN 应用程序的当前信息和历史信息的服务。 |
hbase-hmaster | 2.2.6-amzn-1 | 适用于负责协调区域和执行管理命令的 HBase 集群的服务。 |
hbase-region-server | 2.2.6-amzn-1 | 用于服务于一个或多个 HBase 区域的服务。 |
hbase-client | 2.2.6-amzn-1 | HBase 命令行客户端。 |
hbase-rest-server | 2.2.6-amzn-1 | 用于向 HBase 提供 RESTful HTTP 终端节点的服务。 |
hbase-thrift-server | 2.2.6-amzn-1 | 用于向 HBase 提供 Thrift 终端节点的服务。 |
hcatalog-client | 3.1.2-amzn-4 | 用于操作 hcatalog-server 的“hcat”命令行客户端。 |
hcatalog-server | 3.1.2-amzn-4 | 用于为分布式应用程序提供 HCatalog、表和存储管理层的服务。 |
hcatalog-webhcat-server | 3.1.2-amzn-4 | 用于向 HCatalog 提供 REST 接口的 HTTP 终端节点。 |
hive-client | 3.1.2-amzn-4 | Hive 命令行客户端。 |
hive-hbase | 3.1.2-amzn-4 | Hive-hbase 客户端。 |
hive-metastore-server | 3.1.2-amzn-4 | 用于访问 Hive 元存储 (一个用于存储 Hadoop 操作中的 SQL 的元数据的语义存储库) 的服务。 |
hive-server2 | 3.1.2-amzn-4 | 用于将 Hive 查询作为 Web 请求接受的服务。 |
hudi | 0.7.0-amzn-0 | 增量处理框架,以支持低延迟和高效率的数据管道。 |
hudi-presto | 0.7.0-amzn-0 | 用于运行 Presto 以及 Hudl 的捆绑库。 |
hudi-prestosql | 0.7.0-amzn-0 | 用于运行 PrestoSQL 以及 Hudi 的捆绑库。 |
hudi-spark | 0.7.0-amzn-0 | 用于运行 Spark 以及 Hudi 的捆绑库。 |
hue-server | 4.9.0 | 用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序 |
jupyterhub | 1.2.2 | Jupyter notebook 的多用户服务器 |
livy-server | 0.7.0-incubating | 用于与 Apache Spark 交互的 REST 接口 |
nginx | 1.12.1 | nginx [引擎 x] 是 HTTP 和反向代理服务器 |
mxnet | 1.7.0 | 用于深度学习的灵活的、可扩展且高效的库。 |
mariadb-server | 5.5.68+ | MariaDB 数据库服务器。 |
nvidia-cuda | 10.1.243 | Nvidia 驱动程序和 Cuda 工具包 |
oozie-client | 5.2.1 | Oozie 命令行客户端。 |
oozie-server | 5.2.1 | 用于接受 Oozie 工作流请求的服务。 |
opencv | 4.5.0 | 开源计算机视觉库。 |
phoenix-library | 5.0.0-HBase-2.0 | 服务器和客户端的 phoenix 库 |
phoenix-query-server | 5.0.0-HBase-2.0 | 向 Avatica API 提供 JDBC 访问权限以及协议缓冲区和 JSON 格式访问权限的轻量级服务器 |
presto-coordinator | 0.245.1-amzn-0 | 用于在 presto-worker 之中接受查询并管理查询的服务。 |
presto-worker | 0.245.1-amzn-0 | 用于执行查询的各个部分的服务。 |
presto-client | 0.245.1-amzn-0 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
prestosql-coordinator | 350 | 用于在 prestosql-worker 之中接受查询并管理查询执行的服务。 |
prestosql-worker | 350 | 用于执行查询的各个部分的服务。 |
prestosql-client | 350 | Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。 |
pig-client | 0.17.0 | Pig 命令行客户端。 |
r | 4.0.2 | 用于统计计算的 R 项目 |
ranger-kms-server | 2.0.0 | Apache Ranger 密钥管理系统 |
spark-client | 3.1.1-amzn-0 | Spark 命令行客户端。 |
spark-history-server | 3.1.1-amzn-0 | 用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。 |
spark-on-yarn | 3.1.1-amzn-0 | 适用于 YARN 的内存中执行引擎。 |
spark-yarn-slave | 3.1.1-amzn-0 | YARN 从属项所需的 Apache Spark 库。 |
spark-rapids | 0.4.1 | 加速 Apache Spark 和 GPU 的 Nvidia Spark RAPIDS。 |
sqoop-client | 1.4.7 | Apache Sqoop 命令行客户端。 |
tensorflow | 2.4.1 | 适用于高性能数值计算的 TensorFlow 开源软件库。 |
tez-on-yarn | 0.9.2 | tez YARN 应用程序和库。 |
webserver | 2.4.41+ | Apache HTTP 服务器。 |
zeppelin-server | 0.9.0 | 支持交互式数据分析的基于 Web 的笔记本电脑。 |
zookeeper-server | 3.4.14 | 用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。 |
zookeeper-client | 3.4.14 | ZooKeeper 命令行客户端。 |
6.3.0 配置分类
配置分类允许您自定义应用程序。这些通常与应用程序的配置 XML 文件(例如 hive-site.xml
)相对应。有关更多信息,请参阅配置应用程序。
为处于运行状态的集群中的实例组指定配置时,将发生重新配置操作。Amazon EMR 仅为您修改的分类启动重新配置操作。有关更多信息,请参阅 在正在运行的集群中重新配置实例组。
分类 | 描述 | 重新配置操作 |
---|---|---|
capacity-scheduler | 更改 Hadoop 的 capacity-scheduler.xml 文件中的值。 | Restarts the ResourceManager service. |
container-executor | 更改 Hadoop YARN 的 container-executor.cfg 文件中的值。 | Not available. |
container-log4j | 更改 Hadoop YARN 的 container-log4j.properties 文件中的值。 | Not available. |
core-site | 更改 Hadoop 的 core-site.xml 文件中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | 更改 docker 相关设置。 | Not available. |
emrfs-site | 更改 EMRFS 设置。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | 更改 flink-conf.yaml 设置。 | Restarts Flink history server. |
flink-log4j | 更改 Flink log4j.properties 设置。 | Restarts Flink history server. |
flink-log4j-session | 为 Kubernetes/Yarn 会话更改 Flink log4j-session.properties 设置。 | Restarts Flink history server. |
flink-log4j-cli | 更改 Flink log4j-cli.properties 设置。 | Restarts Flink history server. |
hadoop-env | 更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | 更改 Hadoop 的 log4j.properties 文件中的值。 | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | 更改 hadoop ssl 服务器配置 | Not available. |
hadoop-ssl-client | 更改 hadoop ssl 客户端配置 | Not available. |
hbase | 适用于 Apache HBase 的 Amazon EMR 辅助设置。 | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | 更改 HBase 环境中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | 更改 HBase 的 hbase-log4j.properties 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | 更改 HBase 的 hadoop-metrics2-hbase.properties 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | 更改 HBase 的 hbase-policy.xml 文件中的值。 | Not available. |
hbase-site | 更改 HBase 的 hbase-site.xml 文件中的值。 | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | 配置 HDFS 加密区域。 | This classification should not be reconfigured. |
hdfs-env | 更改 HDFS 环境中的值。 | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | 更改 HDFS 的 hdfs-site.xml 中的值。 | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | 更改 HCatalog 的环境中的值。 | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | 更改 HCatalog 的 jndi.properties 中的值。 | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | 更改 HCatalog 的 proto-hive-site.xml 中的值。 | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | 更改 HCatalog WebHCat 的环境中的值。 | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | 更改 HCatalog WebHCat 的 log4j2.properties 中的值。 | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | 更改 HCatalog WebHCat 的 webhcat-site.xml 文件中的值。 | Restarts Hive WebHCat server. |
hive | 适用于 Apache Hive 的 Amazon EMR 辅助设置。 | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | 更改 Hive 的 beeline-log4j2.properties 文件中的值。 | Not available. |
hive-parquet-logging | 更改 Hive parquet-logging.properties 文件中的值。 | Not available. |
hive-env | 更改 Hive 环境中的值。 | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | 更改 Hive 的 hive-exec-log4j2.properties 文件中的值。 | Not available. |
hive-llap-daemon-log4j2 | 更改 Hive 的 llap-daemon-log4j2.properties 文件中的值。 | Not available. |
hive-log4j2 | 更改 Hive 的 hive-log4j2.properties 文件中的值。 | Not available. |
hive-site | 更改 Hive 的 hive-site.xml 文件中的值 | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | 更改 Hive Server2 的 hiveserver2-site.xml 文件中的值 | Not available. |
hue-ini | 更改 Hue 的 ini 文件中的值 | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | 更改 HTTPFS 环境中的值。 | Restarts Hadoop Httpfs service. |
httpfs-site | 更改 Hadoop 的 httpfs-site.xml 文件中的值。 | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | 更改 Hadoop 的 kms-acls.xml 文件中的值。 | Not available. |
hadoop-kms-env | 更改 Hadoop KMS 环境中的值。 | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | 更改 Hadoop 的 kms-log4j.properties 文件中的值。 | Not available. |
hadoop-kms-site | 更改 Hadoop 的 kms-site.xml 文件中的值。 | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | 更改 Hudi 环境中的值。 | Not available. |
jupyter-notebook-conf | 更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。 | Not available. |
jupyter-hub-conf | 更改 JupyterHubs 的 jupyterhub_config.py 文件中的值。 | Not available. |
jupyter-s3-conf | 配置 Jupyter notebook S3 持久性。 | Not available. |
jupyter-sparkmagic-conf | 更改 Sparkmagic 的 config.json 文件中的值。 | Not available. |
livy-conf | 更改 Livy 的 livy.conf 文件中的值。 | Restarts Livy Server. |
livy-env | 更改 Livy 环境中的值。 | Restarts Livy Server. |
livy-log4j | 更改 Livy log4j.properties 设置。 | Restarts Livy Server. |
mapred-env | 更改 MapReduce 应用程序的环境中的值。 | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | 更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。 | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | 更改 Oozie 的环境中的值。 | Restarts Oozie. |
oozie-log4j | 更改 Oozie 的 oozie-log4j.properties 文件中的值。 | Restarts Oozie. |
oozie-site | 更改 Oozie 的 oozie-site.xml 文件中的值。 | Restarts Oozie. |
phoenix-hbase-metrics | 更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。 | Not available. |
phoenix-hbase-site | 更改 Phoenix 的 hbase-site.xml 文件中的值。 | Not available. |
phoenix-log4j | 更改 Phoenix 的 log4j.properties 文件中的值。 | Restarts Phoenix-QueryServer. |
phoenix-metrics | 更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。 | Not available. |
pig-env | 更改 Pig 环境中的值。 | Not available. |
pig-properties | 更改 Pig 的 pig.properties 文件中的值。 | Restarts Oozie. |
pig-log4j | 更改 Pig 的 log4j.properties 文件中的值。 | Not available. |
presto-log | 更改 Presto 的 log.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-config | 更改 Presto 的 config.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 | Not available. |
presto-env | 更改 Presto 的 presto-env.sh 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-node | 更改 Presto 的 node.properties 文件中的值。 | Not available. |
presto-connector-blackhole | 更改 Presto 的 blackhole.properties 文件中的值。 | Not available. |
presto-connector-cassandra | 更改 Presto 的 cassandra.properties 文件中的值。 | Not available. |
presto-connector-hive | 更改 Presto 的 hive.properties 文件中的值。 | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | 更改 Presto 的 jmx.properties 文件中的值。 | Not available. |
presto-connector-kafka | 更改 Presto 的 kafka.properties 文件中的值。 | Not available. |
presto-connector-localfile | 更改 Presto 的 localfile.properties 文件中的值。 | Not available. |
presto-connector-memory | 更改 Presto 的 memory.properties 文件中的值。 | Not available. |
presto-connector-mongodb | 更改 Presto 的 mongodb.properties 文件中的值。 | Not available. |
presto-connector-mysql | 更改 Presto 的 mysql.properties 文件中的值。 | Not available. |
presto-connector-postgresql | 更改 Presto 的 postgresql.properties 文件中的值。 | Not available. |
presto-connector-raptor | 更改 Presto 的 raptor.properties 文件中的值。 | Not available. |
presto-connector-redis | 更改 Presto 的 redis.properties 文件中的值。 | Not available. |
presto-connector-redshift | 更改 Presto 的 redshift.properties 文件中的值。 | Not available. |
presto-connector-tpch | 更改 Presto 的 tpch.properties 文件中的值。 | Not available. |
presto-connector-tpcds | 更改 Presto 的 tpcds.properties 文件中的值。 | Not available. |
prestosql-log | 更改 Presto 的 log.properties 文件中的值。 | Restarts Presto-Server (for PrestoSQL) |
prestosql-config | 更改 Presto 的 config.properties 文件中的值。 | Restarts Presto-Server (for PrestoSQL) |
prestosql-password-authenticator | 更改 Presto 的 password-authenticator.properties 文件中的值。 | Restarts Presto-Server (for PrestoSQL) |
prestosql-env | 更改 Presto 的 presto-env.sh 文件中的值。 | Restarts Presto-Server (for PrestoSQL) |
prestosql-node | 更改 PrestoSQL 的 node.properties 文件中的值。 | Not available. |
prestosql-connector-blackhole | 更改 PrestoSQL 的 blackhole.properties 文件中的值。 | Not available. |
prestosql-connector-cassandra | 更改 PrestoSQL 的 cassandra.properties 文件中的值。 | Not available. |
prestosql-connector-hive | 更改 PrestoSQL 的 hive.properties 文件中的值。 | Restarts Presto-Server (for PrestoSQL) |
prestosql-connector-jmx | 更改 PrestoSQL 的 jmx.properties 文件中的值。 | Not available. |
prestosql-connector-kafka | 更改 PrestoSQL 的 kafka.properties 文件中的值。 | Not available. |
prestosql-connector-localfile | 更改 PrestoSQL 的 localfile.properties 文件中的值。 | Not available. |
prestosql-connector-memory | 更改 PrestoSQL 的 memory.properties 文件中的值。 | Not available. |
prestosql-connector-mongodb | 更改 PrestoSQL 的 mongodb.properties 文件中的值。 | Not available. |
prestosql-connector-mysql | 更改 PrestoSQL 的 mysql.properties 文件中的值。 | Not available. |
prestosql-connector-postgresql | 更改 PrestoSQL 的 postgresql.properties 文件中的值。 | Not available. |
prestosql-connector-raptor | 更改 PrestoSQL 的 raptor.properties 文件中的值。 | Not available. |
prestosql-connector-redis | 更改 PrestoSQL 的 redis.properties 文件中的值。 | Not available. |
prestosql-connector-redshift | 更改 PrestoSQL 的 redshift.properties 文件中的值。 | Not available. |
prestosql-connector-tpch | 更改 PrestoSQL 的 tpch.properties 文件中的值。 | Not available. |
prestosql-connector-tpcds | 更改 PrestoSQL 的 tpcds.properties 文件中的值。 | Not available. |
ranger-kms-dbks-site | 更改 Ranger KMS 的 dbks-site.xml 文件中的值。 | Restarts Ranger KMS Server. |
ranger-kms-site | 更改 Ranger KMS 的 ranger-kms-site.xml 文件中的值。 | Restarts Ranger KMS Server. |
ranger-kms-env | 更改 Ranger KMS 环境中的值。 | Restarts Ranger KMS Server. |
ranger-kms-log4j | 更改 Ranger KMS 的 kms-log4j.properties 文件中的值。 | Not available. |
ranger-kms-db-ca | 更改 S3 上用于与 Ranger KMS 进行 MySQL SSL 连接的 CA 文件的值。 | Not available. |
spark | 适用于 Apache Spark 的 Amazon EMR 辅助设置。 | This property modifies spark-defaults. See actions there. |
spark-defaults | 更改 Spark 的 spark-defaults.conf 文件中的值。 | Restarts Spark history server and Spark thrift server. |
spark-env | 更改 Spark 环境中的值。 | Restarts Spark history server and Spark thrift server. |
spark-hive-site | 更改 Spark 的 hive-site.xml 文件中的值 | Not available. |
spark-log4j | 更改 Spark 的 log4j.properties 文件中的值。 | Restarts Spark history server and Spark thrift server. |
spark-metrics | 更改 Spark 的 metrics.properties 文件中的值。 | Restarts Spark history server and Spark thrift server. |
sqoop-env | 更改 Sqoop 的环境中的值。 | Not available. |
sqoop-oraoop-site | 更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。 | Not available. |
sqoop-site | 更改 Sqoop 的 sqoop-site.xml 文件中的值。 | Not available. |
tez-site | 更改 Tez 的 tez-site.xml 文件中的值。 | Restart Oozie and HiveServer2. |
yarn-env | 更改 YARN 环境中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | 更改 YARN 的 yarn-site.xml 文件中的值。 | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | 更改 Zeppelin 环境中的值。 | Restarts Zeppelin. |
zeppelin-site | 更改 zeppelin-site.xml 中的配置设置。 | Restarts Zeppelin. |
zookeeper-config | 更改 ZooKeeper 的 zoo.cfg 文件中的值。 | Restarts Zookeeper server. |
zookeeper-log4j | 更改 ZooKeeper 的 log4j.properties 文件中的值。 | Restarts Zookeeper server. |