亚马逊EMR版本 6.3.0 - Amazon EMR

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

亚马逊EMR版本 6.3.0

6.3.0 应用程序版本

此版本支持以下应用程序:FlinkGangliaHBaseHCatalogHadoopHiveHudiHueJupyterEnterpriseGatewayJupyterHubLivyMXNetOoziePhoenixPigPrestoPrestoSQLSparkSqoopTensorFlowTezZeppelinZooKeeper

下表列出了此版本的 Amazon 中可用的应用程序版本EMR和前三个亚马逊版本中的应用程序EMR版本(如果适用)。

要全面了解每个 Amazon 版本的应用程序版本历史记录EMR,请参阅以下主题:

应用程序版本信息
emr-6.3.0 emr-6.2.1 emr-6.2.0 emr-6.1.1
适用于 Java 的AWS SDK 1.11.9771.11.8801.11.8801.11.828
Python 2.7、3.72.7、3.72.7、3.72.7、3.7
Scala 2.12.102.12.102.12.102.12.10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.12.11.11.21.11.21.11.0
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.62.2.6-amzn-02.2.6-amzn-02.2.5
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.7.0-amzn-00.6.0-amzn-10.6.0-amzn-10.5.2-incubating-amzn-2
Hue4.9.04.8.04.8.04.7.1
Iceberg - - - -
JupyterEnterpriseGateway2.1.02.1.02.1.0 -
JupyterHub1.2.21.1.01.1.01.1.0
Livy0.7.00.7.00.7.00.7.0
MXNet1.7.01.7.01.7.01.6.0
Mahout - - - -
Oozie5.2.15.2.05.2.05.2.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.00.17.00.17.0
Presto0.245.10.238.30.238.30.232
Spark3.1.13.0.13.0.13.0.0
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.4.12.3.12.3.12.1.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)350343343338
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

6.3.0 发布说明

以下发行说明包含 Amazon 6.3.0 EMR 版本的信息。更改与 6.2.0 有关。

首次发布日期:2021 年 5 月 12 日

上次更新日期:2021 年 8 月 9 日

受支持的应用程序
  • AWS SDK for Java 版本 1.11.977

  • CloudWatch 水槽版本 2.1.0

  • DynamoDB 连接器 4.16.0

  • EMRFS版本 2.46.0

  • 亚马逊 EMR Goodies 版本 3.2.0

  • 亚马逊 EMR Kinesis Connector 版本 3.5.0

  • 亚马逊EMR录音服务器版本 2.0.0

  • 亚马逊EMR脚本版本 2.5.0

  • Flink 1.12.1

  • Ganglia 3.7.2

  • AWS Glue Hive Metastore 客户端版本 3.2.0

  • Hadoop 3.2.1-amzn-3

  • HBase版本 2.2.6-amzn-1

  • HBase-operator-tools 1.0.0

  • HCatalog版本 3.1.2-amzn-0

  • Hive 3.1.2-amzn-4

  • Hudi 0.7.0-amzn-0

  • Hue 4.9.0

  • Java JDK 版本 Corretto-8.282.08.1(版本 1.8.0_282-b08)

  • JupyterHub 版本 1.2.0

  • Livy 0.7.0-incubating

  • MXNet版本 1.7.0

  • Oozie 5.2.1

  • Phoenix 5.0.0

  • Pig 0.17.0

  • Presto 0.245.1-amzn-0

  • Presto SQL 版本 350

  • Apache RangerKMS(多主机透明加密)版本 2.0.0

  • ranger-plugins 2.0.1-amzn-0

  • ranger-s3-plugin 1.1.0

  • SageMaker Spark SDK 版本 1.4.1

  • Scala 版本 2.12.10(打开 JDK 64 位服务器虚拟机,Java 1.8.0_282)

  • Spark 3.1.1-amzn-0

  • spark-rapids 0.4.1

  • Sqoop 1.4.7

  • TensorFlow 版本 2.4.1

  • tez 0.9.2

  • Zeppelin 0.9.0

  • Zookeeper 3.4.14

  • 连接器和驱动程序:DynamoDB 连接器 4.16.0

新功能
  • 亚马逊EMR支持 Amazon S3 接入点,这是 Amazon S3 的一项功能,可让您轻松管理共享数据湖的访问权限。使用您的 Amazon S3 接入点别名,您可以在 Amazon 上大规模简化数据访问EMR。EMR在提供亚马逊服务的所有 AWS 地区,您可以将 Amazon S3 接入点用于所有版本EMR的 Amazon,无需支付额外费用。要了解有关 Amazon S3 访问点和访问点别名的详细信息,请参阅《Amazon S3 用户指南》中的为接入点使用存储桶式别名

  • 新增DescribeReleaseLabelListReleaseLabelAPI参数提供了 Amazon EMR 发行标签详情。您可以通过编程方式列出运行API请求的区域中可用的版本,并列出特定的 Amazon EMR 发行标签的可用应用程序。发布标签参数还列出了支持指定应用程序(例如 Spark)的 Amazon EMR 版本。此信息可用于以编程方式启动 Amazon EMR 集群。例如,您可以使用 ListReleaseLabel 结果中的最新发行版启动集群。有关更多信息,请参阅 Amazon EMR API 参考ListReleaseLabels中的DescribeReleaseLabel和。

  • 在 Amazon EMR 6.3.0 中,您可以启动与 Apache Ranger 原生集成的集群。Apache Ranger 是一个开源框架,可跨 Hadoop 平台启用、监控和管理全面的数据安全。有关更多信息,请参阅 Apache Ranger。通过原生集成,您可以自带Apache Ranger来在亚马逊上实施精细的数据访问控制。EMR参见《亚马逊EMR管理指南》中的将亚马逊EMR与 Apache Ranger 集成。

  • 限定范围的托管策略:为了与 AWS 最佳实践保持一致,Amazon 引入EMR了 v2 EMR 范围的默认托管策略,以取代即将弃用的策略。参见 Amazon EMR 托管政策

  • 实例元数据服务 (IMDS) V2 支持状态:对于 Amazon EMR 6.2 或更高版本,Amazon EMR 组件IMDSv2用于所有IMDS调用。对于应用程序代码中的IMDS调用,您可以同时使用IMDSv1和IMDSv2,或者将配置IMDS为仅IMDSv2用于增强安全性。如果您IMDSv1在早期的 Amazon EMR 6.x 版本中禁用,则会导致集群启动失败。

更改、增强功能和解决的问题
  • 此版本旨在修复 Amazon EMR Scaling 无法成功扩展/缩小集群或导致应用程序故障时出现的问题。

  • 修复了 Amaz EMR on 集群上守护程序运行状况检查活动(例如收集YARN节点状态和HDFS节点状态)时,对利用率很高的大型集群的扩展请求失败的问题。之所以发生这种情况,是因为集群上的守护程序无法将节点的运行状况数据传送到内部 Ama EMR zon 组件。

  • 改进了EMR集群上的守护程序,可在重复使用 IP 地址时正确跟踪节点状态,从而提高扩展操作期间的可靠性。

  • SPARK-29683。修复了集群缩减期间出现任务失败的问题,因为 Spark 假定所有可用节点都被拒绝列出。

  • YARN-9011。修复了集群尝试向上或向下扩展时,由于YARN停用过程中的争用条件而导致任务失败的问题。

  • 通过确保 Amaz EMR on 集群上守护程序和 YARN /之间的节点状态始终保持一致,修复了集群扩展期间步骤或任务失败的问题。HDFS

  • 修复了启用了 Kerberos 身份验证的 Amazon 集群的EMR集群操作(例如缩减和步骤提交)失败的问题。这是因为 Amaz EMR on 集群上守护程序没有续订 Kerberos 票证,而要与主节点上YARN运行的 HDFS /进行安全通信,则需要续订 Kerberos 票证。

  • 较新的Amazon EMR 版本通过降低亚马逊较旧AL2版本的 “最大打开文件数” 限制来解决这个问题EMR。亚马逊EMR发布的5.30.1、5.30.2、5.31.1、5.32.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0及更高版本现在包含一个永久修复程序,其中包含一个具有更高的 “最大打开文件数” 设置的永久修复。

  • 在 Spark 3.1 中,Spark SQL 用户界面解释模式formatted的默认值从extended更改为。亚马逊将其EMR恢复为extended在 Spark SQL 用户界面中包含逻辑计划信息。可以通过将 spark.sql.ui.explainMode 设置为 formatted 进行还原。

  • 以下提交是从 Spark 主分支逆向移植的。

    -[SPARK-34752] [BUILD] 将 Jetty 推至 9.4.37,地址为 -2020-27223。CVE

    -[SPARK-34534] 修复了用于获取方 blockIds 块时的顺序 FetchShuffleBlocks 。

    -[SPARK-34681] [SQL] 修复了在不相等条件下构建左侧时完全外部洗牌哈希联接的错误。

    -[SPARK-34497] [SQL] 修复内置JDBC连接提供程序以恢复JVM安全上下文更改。

  • 为了提高与 Nvidia Spark RAPIDs 插件的互操作性,添加了解决方法,以解决在禁RAPIDs用自适应查询执行的情况下使用 Nvidia Spark 时无法触发动态分区修剪的问题,请参阅RAPIDS问题 #1378RAPIDS问题 # #1386。有关新配置的详细信息spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse,请参阅RAPIDS问题 # #1386

  • 文件输出提交程序默认算法已在开源 Spark 3.1 中将 v2 算法更改为 v1 算法。有关更多信息,请参阅 Amazon EMR 优化 Spark 性能-动态分区修剪

  • 为了防止EMR性能下降,亚马逊恢复了 v2 算法,这是之前的 Amazon EMR 6.x 版本中使用的默认算法。要恢复开源 Spark 3.1 行为,请将 spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version 设置为 1。开源 Spark 进行了此更改,因为文件输出提交程序算法 v2 中的任务提交不是原子操作,在某些情况下可能会导致输出数据正确性问题。不过,算法 v1 中的任务提交也不是原子操作。在某些情况下,任务提交会包括在重命名之前执行的删除。这可能会导致出现无提示的数据正确性问题。

  • 修复了早期 Amazon EMR 版本中的托管扩展问题,并进行了改进,从而显著降低了应用程序失败率。

  • 已在每个新集群上安装了 AWS Java SDK 捆绑包。这是一个包含所有服务SDKs及其依赖关系的单个 jar,而不是单个组件 jar。有关更多信息,请参阅 Java SDK 捆绑依赖关系

已知问题
  • 对于 Amazon EMR 6.3.0 和 6.2.0 私有子网集群,您无法访问 Ganglia 网页用户界面。您将收到“access denied (403)”错误。其他网络UIs,例如 Spark、Hue JupyterHub、Zeppelin、Livy 和 Tez,都正常运行。公有子网集群上的 Ganglia Web UI 访问也正常工作。要解决该问题,请在具有 sudo systemctl restart httpd 的主节点上重新启动 httpd 服务。此问题已在 Amazon EMR 6.4.0 中修复。

  • 启用 AWS Glue 数据目录后,使用 Spark 访问字符串位置为空的 AWS Glue 数据库URI可能会失败。亚马逊的早期EMR版本会发生这种情况,但是 SPARK -31709 (https://issues.apache.org/jira/browse/ SPARK -31709) 使其适用于更多案例。例如,在默认 AWS Glue DB 中创建位置URI为空字符串的表时,spark.sql("CREATE TABLE mytest (key string) location '/table_path';")会失败,并显示消息 “无法从空字符串创建路径”。要解决此问题,请手动设置 AWS Glue 数据库的位置URI,然后使用 Spark 在这些数据库中创建表。

  • 在亚马逊 EMR 6.3.0 中,Presto SQL 已从 343 版升级到 350 版。开源中有两个与安全相关的更改与此版本更改相关。未定义表、架构或会话属性规则时,基于文件的目录访问控制已从 deny 更改为 allow。此外,基于文件的系统访问控制已更改为支持目录规则未定义的文件。在这种情况下,允许完全访问目录。

    有关更多信息,请参阅发行版 344(2020 年 10 月 9 日)

  • 请注意,所有人都可读取 Hadoop 用户目录(/home/hadoop)。它具有 Unix 755 (drwxr-xr-x) 目录权限,允许像 Hive 这样的框架进行读取访问。您可以将文件放入 /home/hadoop 及其子目录中,但请注意这些目录的权限,做好对敏感信息的保护。

  • 降低旧版本的 “最大打开文件数” 限制 AL2 [在新版本中已修复]。亚马逊EMR版本:emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 基于较旧版本的 Linux ofAmazon 2 ()AL2,当使用默认版本创建亚马逊集群时,“最大打开文件数” 的用户限制较低。EMR AMI亚马逊EMR发布的版本为5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0及更高版本,包括具有更高的 “最大打开文件数” 设置的永久修复。如果使用打开文件数限制较低的发行版,会在提交 Spark 任务时导致“Too many open files”(打开的文件过多)错误。在受影响的版本中,亚马逊EMR默AMI认 “最大打开文件数” 的ulimit设置为4096,低于Linux 2中的65536个文件限制。 latestAmazon AMISpark 驱动程序和执行程序尝试打开超过 4096 个文件时,“打开的最大文件数”的较低 ulimit 设置会导致 Spark 任务失败。为了解决这个问题,Amazon EMR 提供了一个引导操作 (BA) 脚本,可以在创建集群时调整ulimit设置。

    如果您使用的是无法永久修复此问题的旧EMR版 Amazon,则可以使用以下解决方法将实例控制器 ulimit 明确设置为最多 65536 个文件。

    从命令行显式设置 ulimit
    1. 编辑 /etc/systemd/system/instance-controller.service,将以下参数添加到 Service (服务) 部分。

      LimitNOFILE=65536

      LimitNPROC=65536

    2. 重启 InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    使用引导操作 (BA) 设置 ulimit

    您还可以在创建集群时使用引导操作(BA)脚本将实例控制器 ulimit 配置为 65536 个文件。

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • 重要

    EMR运行 Amazon Linux 或 Amazon Linux 2 Amazon 机器映像 (AMIs) 的集群使用默认 Amazon Linux 行为,不会自动下载和安装需要重启的重要关键内核更新。这与运行默认 Amazon Linux 的其他亚马逊EC2实例的行为相同AMI。如果在 Amazon EMR 版本发布后需要重启的新 Amazon Linux 软件CUDA更新(例如内核和更新)可用,则默认运行的EMR集群实例AMI不会自动下载和安装这些更新。NVIDIA要获取内核更新,您可以自定义您的亚马逊EMRAMI使用最新的亚马逊 Linux AMI

  • 要将 Spark 操作与 Apache Oozie 一起使用,必须将以下配置添加到 Oozie workflow.xml 文件中。否则,Oozie 启动的 Spark 执行程序的类路径中EMRFS将缺少几个关键库,例如 Hadoop 和。

    <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  • 当你使用带有 Hive 分区位置格式的 Spark 来读取 Amazon S3 中的数据,并在亚马逊EMR版本 5.30.0 到 5.36.0 和 6.2.0 到 6.9.0 上运行 Spark 时,你可能会遇到一个问题,导致集群无法正确读取数据。如果您的分区具有以下所有特征,会发生这种情况:

    • 从同一个表扫描两个或多个分区。

    • 至少有一个分区目录路径是至少一个其他分区目录路径的前缀,例如,s3://bucket/table/p=as3://bucket/table/p=a b 的前缀。

    • 另一个分区目录中前缀之后的第一个字符的值为 UTF -8,小于该/字符 (U+002F)。例如,在 s3://bucket/table/p=a b 中,a 和 b 之间出现的空格字符 (U+0020) 就属于此类。请注意,还有其他 14 个非控制字符:!"#$%&‘()*+,-。有关更多信息,请参阅 UTF-8 编码表和 Unicode 字符

    解决方法是在 spark-defaults 分类中将 spark.sql.sources.fastS3PartitionDiscovery.enabled 配置设置为 false

6.3.0 组件版本

下面列出了 Amazon 随此版本EMR安装的组件。一些组件作为大数据应用程序包的一部分安装。其他则是 Amazon 独有的EMR,是为系统流程和功能而安装的。它们通常以 emraws 开头。Amazon 最新EMR版本中的大数据应用程序包通常是社区中的最新版本。我们会EMR尽快在 Amazon 上发布社区版本。

Amazon 中的某些组件与社区版本EMR不同。这些组件具有以下形式的 CommunityVersion-amzn-EmrVersion 的发行版标注。EmrVersion 从 0 开始。例如,如果myapp-component以 2.2 版本命名的开源社区组件经过三次修改以包含在不同的 Amazon EMR 版本中,则其发布版本将列为2.2-amzn-2

组件 版本 描述
aws-sagemaker-spark-sdk1.4.1亚马逊 SageMaker Spark SDK
emr-ddb4.16.0适用于 Hadoop 生态系统应用程序的 Amazon DynamoDB 连接器。
emr-goodies3.2.0适用于 Hadoop 生态系统的方便易用的库。
emr-kinesis3.5.0适用于 Hadoop 生态系统应用程序的 Amazon Kinesis 连接器。
emr-notebook-env1.2.0适用于 EMR Notebooks(可提供 jupyter 企业网关)的 Conda env
emr-s3-dist-cp2.18.0针对 Amazon S3 优化的分布式复制应用程序。
emr-s3-select2.1.0EMRS3Select 连接器
emrfs2.46.0适用于 Hadoop 生态系统应用程序的 Amazon S3 连接器。
flink-client1.12.1Apache Flink 命令行客户端脚本和应用程序。
flink-jobmanager-config1.12.1管理 Apache Flink EMR JobManager 节点上的资源。
ganglia-monitor3.7.2适用于 Hadoop 生态系统应用程序的嵌入式 Ganglia 代理以及 Ganglia 监控代理。
ganglia-metadata-collector3.7.2用于从 Ganglia 监控代理中聚合指标的 Ganglia 元数据收集器。
ganglia-web3.7.1用于查看由 Ganglia 元数据收集器收集的指标的 Web 应用程序。
hadoop-client3.2.1-amzn-3Hadoop 命令行客户端,如“hdfs”、“hadoop”或“yarn”。
hadoop-hdfs-datanode3.2.1-amzn-3HDFS用于存储区块的节点级服务。
hadoop-hdfs-library3.2.1-amzn-3HDFS命令行客户端和库
hadoop-hdfs-namenode3.2.1-amzn-3HDFS用于跟踪文件名和区块位置的服务。
hadoop-hdfs-journalnode3.2.1-amzn-3HDFS用于管理 HA 集群上的 Hadoop 文件系统日志的服务。
hadoop-httpfs-server3.2.1-amzn-3HTTPHDFS操作端点。
hadoop-kms-server3.2.1-amzn-3基于 Hadoop 的加密密钥管理服务器。 KeyProvider API
hadoop-mapred3.2.1-amzn-3MapReduce 用于运行 MapReduce 应用程序的执行引擎库。
hadoop-yarn-nodemanager3.2.1-amzn-3YARN用于管理单个节点上的容器的服务。
hadoop-yarn-resourcemanager3.2.1-amzn-3YARN用于分配和管理群集资源和分布式应用程序的服务。
hadoop-yarn-timeline-server3.2.1-amzn-3用于检索YARN应用程序的当前和历史信息的服务。
hbase-hmaster2.2.6-amzn-1为负责协调区域和执行管理命令的HBase集群提供服务。
hbase-region-server2.2.6-amzn-1为一个或多个HBase地区提供服务的服务。
hbase-client2.2.6-amzn-1HBase命令行客户端。
hbase-rest-server2.2.6-amzn-1为提供RESTfulHTTP终端节点的服务HBase。
hbase-thrift-server2.2.6-amzn-1为其提供 Thrift 端点的HBase服务。
hcatalog-client3.1.2-amzn-4用于操作 hcatalog-server 的“hcat”命令行客户端。
hcatalog-server3.1.2-amzn-4提供服务HCatalog,为分布式应用程序提供表和存储管理层。
hcatalog-webhcat-server3.1.2-amzn-4HTTP端点为其提供REST接口HCatalog。
hive-client3.1.2-amzn-4Hive 命令行客户端。
hive-hbase3.1.2-amzn-4Hive-hbase 客户端。
hive-metastore-server3.1.2-amzn-4用于访问 Hive 元数据仓的服务,这是一个语义存储库,用于存储 Hadoop 操作SQL的元数据。
hive-server23.1.2-amzn-4用于将 Hive 查询作为 Web 请求接受的服务。
hudi0.7.0-amzn-0增量处理框架,以支持低延迟和高效率的数据管道。
hudi-presto0.7.0-amzn-0用于运行 Presto 以及 Hudl 的捆绑库。
hudi-prestosql0.7.0-amzn-0用于使用 Hudi 运行 Presto SQL 的捆绑库。
hudi-spark0.7.0-amzn-0用于运行 Spark 以及 Hudi 的捆绑库。
hue-server4.9.0用于使用 Hadoop 生态系统应用程序分析数据的 Web 应用程序
jupyterhub1.2.2Jupyter notebook 的多用户服务器
livy-server0.7.0-incubatingREST用于与 Apache Spark 交互的接口
nginx1.12.1nginx [engine x] HTTP 是一个反向代理服务器
mxnet1.7.0用于深度学习的灵活的、可扩展且高效的库。
mariadb-server5.5.68+MariaDB 数据库服务器。
nvidia-cuda10.1.243Nvidia 驱动程序和 Cuda 工具包
oozie-client5.2.1Oozie 命令行客户端。
oozie-server5.2.1用于接受 Oozie 工作流请求的服务。
opencv4.5.0开源计算机视觉库。
phoenix-library5.0.0--2.0 HBase服务器和客户端的 phoenix 库
phoenix-query-server5.0.0--2.0 HBase轻量级服务器,提供JDBC对 Avatica 的访问权限以及协议缓冲区和JSON格式访问权限 API
presto-coordinator0.245.1-amzn-0用于在 presto-worker 之中接受查询并管理查询的服务。
presto-worker0.245.1-amzn-0用于执行查询的各个部分的服务。
presto-client0.245.1-amzn-0Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。
prestosql-coordinator350用于在 prestosql-worker 之中接受查询并管理查询执行的服务。
prestosql-worker350用于执行查询的各个部分的服务。
prestosql-client350Presto 命令行客户端,安装在 HA 集群的备用主节点(未启动 Presto 服务器)上。
pig-client0.17.0Pig 命令行客户端。
r4.0.2用于统计计算的 R 项目
ranger-kms-server2.0.0Apache Ranger 密钥管理系统
spark-client3.1.1-amzn-0Spark 命令行客户端。
spark-history-server3.1.1-amzn-0用于查看完整的 Spark 应用程序的生命周期的已记录事件的 Web UI。
spark-on-yarn3.1.1-amzn-0的内存中执行引擎。YARN
spark-yarn-slave3.1.1-amzn-0YARN从属服务器需要的 Apache Spark 库。
spark-rapids0.4.1Nvidia Spark RAPIDS 插件可以加速 Apache Spark。GPUs
sqoop-client1.4.7Apache Sqoop 命令行客户端。
tensorflow2.4.1TensorFlow 用于高性能数值计算的开源软件库。
tez-on-yarn0.9.2tez YARN 应用程序和库。
webserver2.4.41+Apache HTTP 服务器。
zeppelin-server0.9.0支持交互式数据分析的基于 Web 的笔记本电脑。
zookeeper-server3.4.14用于维护配置信息、命名、提供分布式同步以及提供组服务的集中式服务。
zookeeper-client3.4.14ZooKeeper 命令行客户端。

6.3.0 配置分类

配置分类允许您自定义应用程序。它们通常对应于应用程序的配置XML文件,例如hive-site.xml。有关更多信息,请参阅 配置应用程序

为处于运行状态的集群中的实例组指定配置时,将发生重新配置操作。Amazon EMR 仅对您修改的分类启动重新配置操作。有关更多信息,请参阅 在正在运行的集群中重新配置实例组

emr-6.3.0 分类
分类 描述 重新配置操作

capacity-scheduler

更改 Hadoop 的 capacity-scheduler.xml 文件中的值。

Restarts the ResourceManager service.

container-executor

更改 Hadoop YARN 的 container-executor.cfg 文件中的值。

Not available.

container-log4j

更改 Hadoop 的 container-log4j.prop YARN erties 文件中的值。

Not available.

core-site

更改 Hadoop 的 core-site.xml 文件中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

更改 docker 相关设置。

Not available.

emrfs-site

更改EMRFS设置。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

更改 flink-conf.yaml 设置。

Restarts Flink history server.

flink-log4j

更改 Flink log4j.properties 设置。

Restarts Flink history server.

flink-log4j-session

为 Kubernetes/Yarn 会话更改 Flink log4j-session.properties 设置。

Restarts Flink history server.

flink-log4j-cli

更改 Flink log4j-cli.properties 设置。

Restarts Flink history server.

hadoop-env

更改适用于所有 Hadoop 组件的 Hadoop 环境中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

更改 Hadoop 的 log4j.properties 文件中的值。

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

更改 hadoop ssl 服务器配置

Not available.

hadoop-ssl-client

更改 hadoop ssl 客户端配置

Not available.

hbase

亚马逊EMR精心策划的 Apache 设置。HBase

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

更改环境HBase中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

更改 hbase-HBase log4j.properties 文件中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

更改 hadoop-metrics2-h HBase base.properties 文件中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

更改HBase的 hbase-policy.xml 文件中的值。

Not available.

hbase-site

更改HBase的 hbase-site.xml 文件中的值。

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

配置HDFS加密区域。

This classification should not be reconfigured.

hdfs-env

更改HDFS环境中的值。

Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC.

hdfs-site

更改的 hdfs-site.xml HDFS 中的值。

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

更改环境HCatalog中的值。

Restarts Hive HCatalog Server.

hcatalog-server-jndi

更改HCatalog的 jndi.properties 中的值。

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

更改 proto-hive-site .x HCatalog ml 中的值。

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

更改 HCatalog W 环境ebHCat中的值。

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

更改 HCatalog W ebHCat 的 log4j2.properties 中的值。

Restarts Hive WebHCat server.

hcatalog-webhcat-site

更改 HCatalog W ebHCat 的 webhcat-site.xml 文件中的值。

Restarts Hive WebHCat server.

hive

亚马逊EMR精心策划的 Apache Hive 设置。

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

更改 Hive 的 beeline-log4j2.properties 文件中的值。

Not available.

hive-parquet-logging

更改 Hive parquet-logging.properties 文件中的值。

Not available.

hive-env

更改 Hive 环境中的值。

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

更改 Hive 的 hive-exec-log 4j2.properties 文件中的值。

Not available.

hive-llap-daemon-log4j2

更改 Hive 的 llap-daemon-log 4j2.properties 文件中的值。

Not available.

hive-log4j2

更改 Hive 的 hive-log4j2.properties 文件中的值。

Not available.

hive-site

更改 Hive 的 hive-site.xml 文件中的值

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

更改 Hive Server2 的 hiveserver2-site.xml 文件中的值

Not available.

hue-ini

更改 Hue 的 ini 文件中的值

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

更改HTTPFS环境中的值。

Restarts Hadoop Httpfs service.

httpfs-site

更改 Hadoop 的 httpfs-site.xml 文件中的值。

Restarts Hadoop Httpfs service.

hadoop-kms-acls

更改 Hadoop 的 kms-acls.xml 文件中的值。

Not available.

hadoop-kms-env

在 Hadoop KMS 环境中更改值。

Restarts Hadoop-KMS service.

hadoop-kms-log4j

更改 Hadoop 的 kms-log4j.properties 文件中的值。

Not available.

hadoop-kms-site

更改 Hadoop 的 kms-site.xml 文件中的值。

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

更改 Hudi 环境中的值。

Not available.

jupyter-notebook-conf

更改 Jupyter notebook 的 jupyter_notebook_config.py 文件中的值。

Not available.

jupyter-hub-conf

更改 JupyterHubs的 jupyterhub_config.py 文件中的值。

Not available.

jupyter-s3-conf

配置 Jupyter notebook S3 持久性。

Not available.

jupyter-sparkmagic-conf

更改 Sparkmagic 的 config.json 文件中的值。

Not available.

livy-conf

更改 Livy 的 livy.conf 文件中的值。

Restarts Livy Server.

livy-env

更改 Livy 环境中的值。

Restarts Livy Server.

livy-log4j

更改 Livy log4j.properties 设置。

Restarts Livy Server.

mapred-env

更改 MapReduce 应用程序环境中的值。

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

更改 MapReduce 应用程序的 mapred-site.xml 文件中的值。

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

更改 Oozie 的环境中的值。

Restarts Oozie.

oozie-log4j

更改 Oozie 的 oozie-log4j.properties 文件中的值。

Restarts Oozie.

oozie-site

更改 Oozie 的 oozie-site.xml 文件中的值。

Restarts Oozie.

phoenix-hbase-metrics

更改 Phoenix 的 hadoop-metrics2-hbase.properties 文件中的值。

Not available.

phoenix-hbase-site

更改 Phoenix 的 hbase-site.xml 文件中的值。

Not available.

phoenix-log4j

更改 Phoenix 的 log4j.properties 文件中的值。

Restarts Phoenix-QueryServer.

phoenix-metrics

更改 Phoenix 的 hadoop-metrics2-phoenix.properties 文件中的值。

Not available.

pig-env

更改 Pig 环境中的值。

Not available.

pig-properties

更改 Pig 的 pig.properties 文件中的值。

Restarts Oozie.

pig-log4j

更改 Pig 的 log4j.properties 文件中的值。

Not available.

presto-log

更改 Presto 的 log.properties 文件中的值。

Restarts Presto-Server (for PrestoDB)

presto-config

更改 Presto 的 config.properties 文件中的值。

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

Not available.

presto-env

更改 Presto 的 presto-env.sh 文件中的值。

Restarts Presto-Server (for PrestoDB)

presto-node

更改 Presto 的 node.properties 文件中的值。

Not available.

presto-connector-blackhole

更改 Presto 的 blackhole.properties 文件中的值。

Not available.

presto-connector-cassandra

更改 Presto 的 cassandra.properties 文件中的值。

Not available.

presto-connector-hive

更改 Presto 的 hive.properties 文件中的值。

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

更改 Presto 的 jmx.properties 文件中的值。

Not available.

presto-connector-kafka

更改 Presto 的 kafka.properties 文件中的值。

Not available.

presto-connector-localfile

更改 Presto 的 localfile.properties 文件中的值。

Not available.

presto-connector-memory

更改 Presto 的 memory.properties 文件中的值。

Not available.

presto-connector-mongodb

更改 Presto 的 mongodb.properties 文件中的值。

Not available.

presto-connector-mysql

更改 Presto 的 mysql.properties 文件中的值。

Not available.

presto-connector-postgresql

更改 Presto 的 postgresql.properties 文件中的值。

Not available.

presto-connector-raptor

更改 Presto 的 raptor.properties 文件中的值。

Not available.

presto-connector-redis

更改 Presto 的 redis.properties 文件中的值。

Not available.

presto-connector-redshift

更改 Presto 的 redshift.properties 文件中的值。

Not available.

presto-connector-tpch

更改 Presto 的 tpch.properties 文件中的值。

Not available.

presto-connector-tpcds

更改 Presto 的 tpcds.properties 文件中的值。

Not available.

prestosql-log

更改 Presto 的 log.properties 文件中的值。

Restarts Presto-Server (for PrestoSQL)

prestosql-config

更改 Presto 的 config.properties 文件中的值。

Restarts Presto-Server (for PrestoSQL)

prestosql-password-authenticator

更改 Presto 的 password-authenticator.properties 文件中的值。

Restarts Presto-Server (for PrestoSQL)

prestosql-env

更改 Presto 的 presto-env.sh 文件中的值。

Restarts Presto-Server (for PrestoSQL)

prestosql-node

更改 Presto 的 node.prop SQL erties 文件中的值。

Not available.

prestosql-connector-blackhole

更改 Presto 的 blackhole.prop SQL erties 文件中的值。

Not available.

prestosql-connector-cassandra

更改 Presto 的 cassandra.prop SQL erties 文件中的值。

Not available.

prestosql-connector-hive

更改 Presto 的 hive.prop SQL erties 文件中的值。

Restarts Presto-Server (for PrestoSQL)

prestosql-connector-jmx

更改 Presto 的 jmx.prop SQL erties 文件中的值。

Not available.

prestosql-connector-kafka

更改 Presto 的 kafka.prop SQL erties 文件中的值。

Not available.

prestosql-connector-localfile

更改 Presto 的 localfile.prop SQL erties 文件中的值。

Not available.

prestosql-connector-memory

更改 Presto 的内存.propert SQL ies 文件中的值。

Not available.

prestosql-connector-mongodb

更改 Presto 的 mon SQL godb.properties 文件中的值。

Not available.

prestosql-connector-mysql

更改 Presto 的 mysql.prop SQL erties 文件中的值。

Not available.

prestosql-connector-postgresql

更改 Presto 的 postgresql.prop SQL erties 文件中的值。

Not available.

prestosql-connector-raptor

更改 Presto 的 raptor.prop SQL erties 文件中的值。

Not available.

prestosql-connector-redis

更改 Presto 的 redis.prop SQL erties 文件中的值。

Not available.

prestosql-connector-redshift

更改 Presto 的 reds SQL hift.properties 文件中的值。

Not available.

prestosql-connector-tpch

更改 Presto 的 tpch.prop SQL erties 文件中的值。

Not available.

prestosql-connector-tpcds

更改 Presto 的 tpcds.prop SQL erties 文件中的值。

Not available.

ranger-kms-dbks-site

更改 Ranger KMS 的 dbks-site.xml 文件中的值。

Restarts Ranger KMS Server.

ranger-kms-site

更改 Ran ranger-kms-site KMS ger .xml 文件中的值。

Restarts Ranger KMS Server.

ranger-kms-env

在游侠KMS环境中更改值。

Restarts Ranger KMS Server.

ranger-kms-log4j

更改 Ranger 的 kms-log4j.properties 文件中的值。KMS

Not available.

ranger-kms-db-ca

更改 S3 上我与 Ranger SQL SSL KMS 连接的 CA 文件值。

Not available.

spark

亚马逊EMR精心策划的 Apache Spark 设置。

This property modifies spark-defaults. See actions there.

spark-defaults

更改 Spark 的 spark-defaults.conf 文件中的值。

Restarts Spark history server and Spark thrift server.

spark-env

更改 Spark 环境中的值。

Restarts Spark history server and Spark thrift server.

spark-hive-site

更改 Spark 的 hive-site.xml 文件中的值

Not available.

spark-log4j

更改 Spark 的 log4j.properties 文件中的值。

Restarts Spark history server and Spark thrift server.

spark-metrics

更改 Spark 的 metrics.properties 文件中的值。

Restarts Spark history server and Spark thrift server.

sqoop-env

更改 Sqoop 的环境中的值。

Not available.

sqoop-oraoop-site

更改 Sqoop OraOop 的 oraoop-site.xml 文件中的值。

Not available.

sqoop-site

更改 Sqoop 的 sqoop-site.xml 文件中的值。

Not available.

tez-site

更改 Tez 的 tez-site.xml 文件中的值。

Restart Oozie and HiveServer2.

yarn-env

更改YARN环境中的值。

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

更改YARN的 yarn-site.xml 文件中的值。

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

更改 Zeppelin 环境中的值。

Restarts Zeppelin.

zeppelin-site

更改 zeppelin-site.xml 中的配置设置。

Restarts Zeppelin.

zookeeper-config

更改 ZooKeeper的 zoo.cfg 文件中的值。

Restarts Zookeeper server.

zookeeper-log4j

更改 ZooKeeper的 log4j.properties 文件中的值。

Restarts Zookeeper server.