Amazon EMR 5.31.0 版 - Amazon EMR

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

Amazon EMR 5.31.0 版

5.31.0 應用程式版本

此版本支援下列應用程式:FlinkGangliaHBaseHCatalogHadoopHiveHudiHueJupyterHubLivyMXNetMahoutOoziePhoenixPigPrestoSparkSqoopTensorFlowTezZeppelinZooKeeper

下表列出此 Amazon EMR 版本中提供的應用程式版本,以及前三個 Amazon EMR 版本 (如果適用) 中的應用程式版本。

如需完整了解各 Amazon EMR 版之應用程式版本的完整歷史記錄,請參閱以下主題:

應用程式版本資訊
emr-5.31.0 emr-5.30.2 emr-5.30.1 emr-5.30.0
AWS SDK for Java 1.11.8521.11.7591.11.7591.11.759
Python 2.7、3.72.7、3.72.7、3.72.7、3.7
Scala 2.11.122.11.122.11.122.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.01.10.01.10.01.10.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.131.4.131.4.131.4.13
HCatalog2.3.72.3.62.3.62.3.6
Hadoop2.10.02.8.52.8.52.8.5
Hive2.3.72.3.62.3.62.3.6
Hudi0.6.0-amzn-00.5.2-incubating0.5.2-incubating0.5.2-incubating
Hue4.7.14.6.04.6.04.6.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.1.01.1.0
Livy0.7.00.7.00.7.00.7.0
MXNet1.6.01.5.11.5.11.5.1
Mahout0.13.00.13.00.13.00.13.0
Oozie5.2.05.2.05.2.05.2.0
Phoenix4.14.34.14.34.14.34.14.3
Pig0.17.00.17.00.17.00.17.0
Presto0.238.30.2320.2320.232
Spark2.4.62.4.52.4.52.4.5
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow2.1.01.14.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL) - - - -
Zeppelin0.8.20.8.20.8.20.8.2
ZooKeeper3.4.143.4.143.4.143.4.14

5.31.0 版本備註

以下版本備註包含 Amazon EMR 5.31.0 版的資訊。變更是相對於 5.30.1 版而言。

初始版本日期:2020 年 10 月 9 日

上次更新日期:2020 年 10 月 15 日

升級
  • 升級 Amazon Glue 連接器至版本 1.13.0

  • 升級 Amazon SageMaker 星火 SDK 到 1.4.0 版本

  • 升級 Amazon Kinesis 連接器至版本 3.5.9

  • 升級 AWS SDK for Java 至 1.11.852 版

  • 升級 Bigtop-tomcat 至版本 8.5.56

  • 升級 EMR FS 至版本 2.43.0

  • 已 EMR 級至 1.4.0 版的電子產品 MetricsAndEventsApiGateway 客戶端

  • 升級 EMR S3 Dist CP 至版本 2.15.0

  • 升級 EMR S3 Select 至版本 1.6.0

  • 升級 Flink 至版本 1.11.0

  • 升級 Hadoop 至版本 2.10.0

  • 升級 Hive 至版本 2.3.7

  • 升級 Hudi 至版本 0.6.0

  • 升級 Hue 至版本 4.7.1

  • 已升級 JupyterHub 至 1.1.0 版

  • 升級 Mxnet 至版本 1.6.0

  • 升級 OpenCV 至版本 4.3.0

  • 升級 Presto 至版本 0.238.3

  • 已升級 TensorFlow 至 2.1.0 版

變更、強化功能和已解決的問題
  • 此版本修正 Amazon EMR 擴展無法成功縱向擴展/縮減叢集規模或導致應用程式發生故障的問題。

  • 修正當 Amazon EMR 叢集上常駐程式執行運作狀態檢查活動 (例如收集 YARN 節點狀態和 HDFS 節點狀態) 時,對大型、高度使用的叢集發起的擴展請求失敗的問題。發生此問題的原因是,叢集上常駐程式無法將節點的運作狀態資料傳送至內部 Amazon EMR 元件。

  • 改進 EMR 叢集上常駐程式,以便在擴展操作期間為提高可靠性而重複使用 IP 地址時,正確地追蹤節點狀態。

  • SPARK-29683。修正因為 Spark 擔任的所有可用的節點被列入拒絕清單,而導致作業在叢集縮減規模期間失敗的問題。

  • YARN-9011。修正當叢集嘗試縱向擴展或縮減規模時,作業因 YARN 除役中的競爭條件而失敗的問題。

  • 透過確保 Amazon EMR 叢集上常駐程式和 YARN/HDFS 之間的節點狀態始終是一致的,修正叢集擴展期間的步驟或作業失敗問題。

  • 針對使用 Kerberos 身分驗證啟用的 Amazon EMR 叢集,修正某些叢集操作 (例如縮減規模和步驟提交) 失敗的問題。這是因為 Amazon EMR 叢集上的常駐程式未更新 Kerberos 票證,而它對於與主節點上執行的 HDFS/YARN 通訊而言必不可少。

  • 較新的 Amazon EMR 版本修正較舊 Amazon EMR 版本中 AL2 上的「最大開放檔案」限制過低的問題。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本現在包含使用更高「最大開放檔案」設定的永久修正。

  • Amazon EMR 版本 5.31.0 及更高版本支援 Hive 資料欄統計資料

  • 已升級元件版本。

  • Amazon EMR 5.31.0 中的 EMRFS S3EC 版本 2 支援。在 S3 Java SDK 版本 1.11.837 及更高版本中,加密用戶端版本 2 (S3EC V2) 已推出並提供各種安全增強功能。如需詳細資訊,請參閱下列內容:

    SDK 中仍提供加密用戶端版本 1 以實現回溯相容性。

新功能
  • 較舊 AL2 上的「最大開放檔案」限制過低 [在新版本中修正]。Amazon EMR 版本:emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0 和 emr-6.2.0 以較舊版本 Amazon Linux 2 (AL2) 為基礎;當使用預設 AMI 建立 Amazon EMR 叢集時,後者的「最大開放檔案」ulimit 設定過低。Amazon EMR 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 版及更高版本包含使用更高「最大開放檔案」設定的永久修正。提交 Spark 作業時,開放檔限制較低的版本會導致「開放檔案過多」錯誤。在受影響版本中,Amazon EMR 預設 AMI 對「最大開放檔案」有 4096 的預設 ulimit 設定,此設定低於最新 Amazon Linux 2 AMI 中的 65536 檔案限制。當 Spark 驅動程式和執行器嘗試開啟超過 4096 個檔案時,「最大開放檔案」的 ulimit 設定過低會導致 Spark 作業失敗。為了修正該問題,Amazon EMR 提供引導操作 (BA) 指令碼,以便在建立叢集時調整 ulimit 設定。

    若您使用未永久修正此問題的較舊 Amazon EMR 版本,以下解決辦法可讓您將執行個體-控制器 ulimit 明確設定為最大 65536 個檔案。

    從命令列明確設定 ulimit
    1. 編輯 /etc/systemd/system/instance-controller.service 以新增下列參數至「服務」區段。

      LimitNOFILE=65536

      LimitNPROC=65536

    2. 重啟 InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    使用引導操作 (BA) 設定 ulimit

    您還可以使用引導操作 (BA) 指令碼,在建立叢集時將執行個體-控制器 ulimit 設定為 65536 個檔案。

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • 使用 Amazon EMR 5.31.0,您可以啟動與 Lake Formation 整合的叢集。此整合可為 AWS Glue 資料目錄中的資料庫和資料表提供精細的資料行層級資料篩選。它還啟用聯合單一登入,因此使用者可從企業身分系統登入 EMR Notebooks 或 Apache Zeppelin。如需詳細資訊,請參閱《Amazon EMR 管理指南》中的將 Amazon EMR 與 AWS Lake Formation整合

    Amazon EMR 與 Lake Formation 目前在 16 個 AWS 區域提供:美國東部 (俄亥俄和維吉尼亞北部)、美國西部 (加利佛尼亞北部和奧勒岡)、亞太區域 (孟買、首爾、新加坡、雪梨和東京)、加拿大 (中部)、歐洲 (法蘭克福、愛爾蘭、倫敦、巴黎和斯德哥爾摩)、南美洲 (聖保羅)。

已知問題
  • 使用多個主節點和 Kerberos 身分驗證的叢集中存在的已知問題

    如果在 Amazon EMR 5.20.0 版及更高版本中使用多個主節點和 Kerberos 身分驗證執行叢集,當叢集執行一段時間後,您可能遇到某些叢集操作 (例如縮減規模或步驟提交) 失敗的問題。時段取決於您定義的 Kerberos 票證有效期。規模調減問題會同時影響自動縮減規模和您提交的明確縮減規模請求。其他叢集操作也可能受影響。

    解決方法:

    • hadoop 使用者身分透過 SSH 連線至具有多個主節點的 EMR 叢集首要主節點。

    • 執行以下命令,以更新 hadoop 使用者的 Kerberos 票證。

      kinit -kt <keytab_file> <principal>

      一般而言,Keytab 檔案位於 /etc/hadoop.keytab,而主體則採用 hadoop/<hostname>@<REALM> 的形式。

    注意

    此解決辦法的有效期間和 Kerberos 票證的有效期間相同。此持續時間預設為 10 個小時,但可以透過您的 Kerberos 設定進行變更。若 Kerberos 票證過期,您必須重新執行上述命令。

  • 在使用 Amazon EMR 5.31.0 AtRestEncryption 或 5.32.0 的叢集上啟用或 HDFS 加密時,Hive 查詢會導致下列執行階段例外狀況。

    TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
  • 當您使用具有 Hive 分割區位置格式設定的 Spark 讀取 Amazon S3 中的資料,而您在 Amazon EMR 版本 5.30.0 至 5.36.0、6.2.0 至 6.9.0 上執行 Spark 時,您可能遇到叢集無法正確讀取資料的問題。如果您的分割區具有以下所有特性,便會發生此種情形:

    • 兩個或更多分割區從同一資料表掃描而來。

    • 至少有一個分割區目錄路徑是其他一或多個分割區目錄路徑的字首,例如,s3://bucket/table/p=as3://bucket/table/p=a b 的字首。

    • 在另一個分割區目錄中,字首後的第一個字元有小於 / 字元 (U+002F) 的 UTF-8 值。例如,s3://bucket/table/p=a b 中 a 和 b 之間有空白字元 (U+0020) 即屬於此類別。請注意還有 14 個其他非控制字元:!"#$%&‘()*+,-。如需詳細資訊,請參閱 UTF-8 編碼表和 Unicode 字元

    若要避免發生此問題,請在 spark-defaults 分類中將 spark.sql.sources.fastS3PartitionDiscovery.enabled 組態設定為 false

5.31.0 元件版本

Amazon EMR 在此版本安裝的元件列出如下。其中有一些屬於大數據應用程式套件。其他的則為 Amazon EMR 獨有,並安裝為系統程序和功能。這些通常會以 emraws 開頭。在最新 Amazon EMR 版本中的大數據應用程式套件,通常也是社群中可找到的最新版本。我們致力盡快提供 Amazon EMR 的社群版本。

Amazon EMR 中的某些元件與社群版本不同。這些元件具有版本標籤,格式為 CommunityVersion-amzn-EmrVersionEmrVersion 從 0 開始。例如,假設有一個名為 myapp-component 的開放原始碼社群元件 2.2 版為了包含在不同 Amazon EMR 發行版本中而修改過三次,則其發行版本會列為 2.2-amzn-2

元件 版本 描述
aws-sagemaker-spark-sdk1.4.0Amazon SageMaker 星火 SDK
emr-ddb4.15.0適用於 Hadoop 生態系統應用程式的 Amazon DynamoDB 連接器。
emr-goodies2.13.0適用 Hadoop 生態系統的超便利程式庫。
emr-kinesis3.5.0適用於 Hadoop 生態系統應用程式的 Amazon Kinesis 連接器。
emr-s3-dist-cp2.15.0針對 Amazon S3 最佳化的分散式複製應用程式。
emr-s3-select1.6.0EMR S3Select Connector
emrfs2.43.0適用於 Hadoop 生態系統應用程式的 Amazon S3 連接器。
flink-client1.11.0Apache Flink 命令列用戶端指令碼和應用程式。
flink-jobmanager-config1.11.0管理阿帕奇 F JobManager link 的 EMR 節點上的資源。
ganglia-monitor3.7.2Hadoop 生態系統應用程式內嵌 Ganglia 代理程式以及 Ganglia 監控代理程式。
ganglia-metadata-collector3.7.2Ganglia 監控代理程式的彙總指標 Ganglia 中繼資料收集器。
ganglia-web3.7.1由 Ganglia 中繼資料收集器收集,以檢視指標的 Web 應用程式。
hadoop-client2.10.0-amzn-0Hadoop 命令列用戶端,例如「hdfs」、「Hadoop」或「yarn」。
hadoop-hdfs-datanode2.10.0-amzn-0用於存放區塊的 HDFS 節點層級服務。
hadoop-hdfs-library2.10.0-amzn-0HDFS 命令列用戶端和程式庫
hadoop-hdfs-namenode2.10.0-amzn-0用於追蹤檔案名稱和區塊位置的 HDFS 服務。
hadoop-hdfs-journalnode2.10.0-amzn-0HDFS 檔案系統中的 Hadoop 服務,用於管理在 HA 叢集。
hadoop-httpfs-server2.10.0-amzn-0HDFS 操作的 HTTP 端點。
hadoop-kms-server2.10.0-amzn-0基於 Hadoop 的 KeyProvider API 的加密密鑰管理服務器。
hadoop-mapred2.10.0-amzn-0MapReduce 用於執行應用程式的執行引擎 MapReduce 程式庫。
hadoop-yarn-nodemanager2.10.0-amzn-0在個別節點用於管理容器的 YARN 服務。
hadoop-yarn-resourcemanager2.10.0-amzn-0用於分配和管理叢集資源,以及分散式應用程式的 YARN 服務。
hadoop-yarn-timeline-server2.10.0-amzn-0為 YARN 應用程式擷取目前和歷史資訊的服務。
hbase-hmaster1.4.13負責區域協調和執行管理命令的 HBase 叢集服務。
hbase-region-server1.4.13提供一或多個 HBase 區域的服務。
hbase-client1.4.13HBase 命令列用戶端。
hbase-rest-server1.4.13為 HBase 提供 RESTful HTTP 端點的服務。
hbase-thrift-server1.4.13提供 Thrift 端點到 HBase 的服務。
hcatalog-client2.3.7-amzn-1操作 hcatalog-server 的「hcat」命令列用戶端。
hcatalog-server2.3.7-amzn-1服務為分散式應用程式提供 HCatalog、表格和儲存管理層。
hcatalog-webhcat-server2.3.7-amzn-1HTTP 端點提供了 REST 介面至 HCatalog。
hive-client2.3.7-amzn-1Hive 命令列用戶端。
hive-hbase2.3.7-amzn-1Hive-hbase 用戶端。
hive-metastore-server2.3.7-amzn-1為 Hadoop 操作的 SQL 提供存取 Hive 中繼儲存、存放中繼資料語意儲存庫的服務。
hive-server22.3.7-amzn-1依 Web 請求接受 Hive 查詢的服務。
hudi0.6.0-amzn-0增量處理架構,以低延遲和高效率強化資料管道。
hudi-spark0.6.0-amzn-0用於使用 Hudi 執行 Spark 的套件程式庫。
hudi-presto0.6.0-amzn-0用於使用 Hudi 執行 Presto 的套件程式庫。
hue-server4.7.1使用 Hadoop 生態系統應用程式分析資料的 Web 應用程式
jupyterhub1.1.0適用於 Jupyter 筆記本的多使用者伺服器
livy-server0.7.0-incubating與 Apache Spark 互動的 REST 介面
nginx1.12.1nginx [engine x] 是 HTTP 和反向代理伺服器
mahout-client0.13.0機器學習程式庫。
mxnet1.6.0靈活有效率的程式庫,具可擴展性,適用於深度學習。
mariadb-server5.5.64MySQL 資料庫伺服器。
nvidia-cuda9.2.88Nvidia 驅動程式和 Cuda 工具組
oozie-client5.2.0Oozie 命令列用戶端。
oozie-server5.2.0接受 Oozie 工作流程要求的服務。
opencv4.3.0開放原始碼電腦 Vision 程式庫。
phoenix-library4.14.3-HBase-1.4適用於伺服器和用戶端的 phoenix 程式庫
phoenix-query-server4.14.3-HBase-1.4此為一輕量伺服器,可提供對 Avatica API 的 JDBC 存取以及通訊協定緩衝區和 JSON 格式存取
presto-coordinator0.238.3-amzn-0在 presto-workers 之間接受查詢和執行管理查詢的服務。
presto-worker0.238.3-amzn-0執行查詢各部分的服務。
presto-client0.238.3-amzn-0安裝於 HA 叢集的待命主節點的 Presto 命令列用戶端,該主節點上的 Presto 伺服器未啟動。
pig-client0.17.0Pig 命令列用戶端。
r3.4.3統計運算 R 專案
ranger-kms-server1.2.0Apache Ranger Key Management System
spark-client2.4.6-amzn-0Spark 命令列用戶端。
spark-history-server2.4.6-amzn-0用於檢視完整 Spark 應用程式生命週期記錄事件的 Web 使用者介面。
spark-on-yarn2.4.6-amzn-0適用於 YARN 的記憶體內執行引擎。
spark-yarn-slave2.4.6-amzn-0YARN 從屬所需的 Apache Spark 程式庫。
sqoop-client1.4.7Apache Sqoop 命令列用戶端。
tensorflow2.1.0TensorFlow 用於高性能數值計算的開源軟件庫。
tez-on-yarn0.9.2tez YARN 應用程式和程式庫。
webserver2.4.25+Apache HTTP 伺服器。
zeppelin-server0.8.2能進行互動式資料分析,以 Web 為基礎的筆記型電腦。
zookeeper-server3.4.14用於維護組態資訊、命名、提供分散式同步,並提供群組服務的集中化服務。
zookeeper-client3.4.14ZooKeeper 命令行客戶端。

5.31.0 組態類別

組態分類可讓您自訂應用程式。這些檔案通常對應於應用程式的組態 XML 檔案,例如 hive-site.xml。如需詳細資訊,請參閱 設定應用程式

emr-5.31.0 分類
分類 描述

capacity-scheduler

變更 Hadoop 中 capacity-scheduler.xml 檔案的值。

container-log4j

變更 Hadoop YARN 的 container-log4j.properties 檔案中的值。

core-site

變更 Hadoop 中 core-site.xml 檔案的值。

emrfs-site

變更 EMRFS 設定。

flink-conf

變更 flink-conf.yaml 設定。

flink-log4j

變更 Flink log4j.properties 設定。

flink-log4j-yarn-session

變更 Flink 記錄 4j-yarn-session. 內容設定。

flink-log4j-cli

變更 Flink log4j-cli.properties 設定。

hadoop-env

在 Hadoop 環境中變更所有 Hadoop 元件的值。

hadoop-log4j

變更 Hadoop 中 log4j.properties 檔案的值。

hadoop-ssl-server

變更 hadoop ssl 伺服器組態

hadoop-ssl-client

變更 hadoop ssl 用戶端組態

hbase

Apache HBase 的 Amazon EMR 彙整設定。

hbase-env

變更 HBase 環境中的值。

hbase-log4j

變更 HBase 的 hbase-log4j.properties 檔案中的值。

hbase-metrics

變更 HBase 的 hadoop-metrics2-hbase.properties 檔案中的值。

hbase-policy

變更 HBase 的 hbase-policy.xml 檔案中的值。

hbase-site

變更 HBase 的 hbase-site.xml 檔案中的值。

hdfs-encryption-zones

設定 HDFS 加密區域。

hdfs-site

變更 HDFS 的 hdfs-site.xml 中的值。

hcatalog-env

變更 HCatalog 環境中的值。

hcatalog-server-jndi

變更 HCatalog 的 jndi.properties 中的值。

hcatalog-server-proto-hive-site

更改 H 目錄的 proto-hive-site .xml 中的值。

hcatalog-webhcat-env

變更 HCatalog WebHCat 環境中的值。

hcatalog-webhcat-log4j2

變更 HCatalog WebHCat 的 log4j2.properties 中的值。

hcatalog-webhcat-site

變更 HCatalog WebHCat 的 webhcat-site.xml 檔案中的值。

hive-beeline-log4j2

變更 Hive 的 beeline-log4j2.properties 檔案中的值。

hive-parquet-logging

變更 Hive 的 parquet-logging.properties 檔案中的值。

hive-env

變更 Hive 環境中的值。

hive-exec-log4j2

更改蜂巢的 hive-exec-log 4j2. 屬性文件中的值。

hive-llap-daemon-log4j2

更改蜂巢的 llap-daemon-log 4j2. 屬性文件中的值。

hive-log4j2

變更 Hive 的 hive-log4j2.properties 檔案中的值。

hive-site

變更 Hive 的 hive-site.xml 檔案中的值

hiveserver2-site

變更 Hive Server2 的 hiveserver2-site.xml 檔案中的值

hue-ini

變更 Hue 的 ini 檔案中的值

httpfs-env

變更 HTTPFS 環境中的值。

httpfs-site

變更 Hadoop 中 httpfs-site.xml 檔案的值。

hadoop-kms-acls

變更 Hadoop 中 kms-acls.xml 檔案的值。

hadoop-kms-env

變更 Hadoop KMS 環境中的值。

hadoop-kms-log4j

變更 Hadoop 的 kms-log4j.properties 檔案中的值。

hadoop-kms-site

變更 Hadoop 中 kms-site.xml 檔案的值。

hudi-env

變更 Hudi 環境中的值。

jupyter-notebook-conf

變更 Jupyter 筆記本中 jupyter_notebook_config.py 檔案的值。

jupyter-hub-conf

變更 JupyterHubs的 jupyterhub_config.py 檔案中的值。

jupyter-s3-conf

設定 Jupyter 筆記本 S3 持久性。

jupyter-sparkmagic-conf

變更 Sparkmagic 中 config.json 檔案的值。

livy-conf

變更 Livy 的 livy.conf 檔案中的值。

livy-env

變更 Livy 環境中的值。

livy-log4j

變更 Livy log4j.properties 設定。

mapred-env

變更 MapReduce 應用程式環境中的值。

mapred-site

變更 MapReduce 應用程式的 mapred-site.xml 檔案中的值。

oozie-env

變更 Oozie 環境中的值。

oozie-log4j

變更 Oozie 的 oozie-log4j.properties 檔案中的值。

oozie-site

變更 Oozie 的 oozie-site.xml 檔案中的值。

phoenix-hbase-metrics

變更 Phoenix 的 hadoop-metrics2-hbase.properties 檔案中的值。

phoenix-hbase-site

變更 Phoenix 的 hbase-site.xml 檔案中的值。

phoenix-log4j

變更 Phoenix 中 log4j.properties 檔案的值。

phoenix-metrics

變更 Phoenix 的 hadoop-metrics2-phoenix.properties 檔案中的值。

pig-env

在 Pig 環境中變更值。

pig-properties

變更 Pig 的 pig.properties 檔案中的值。

pig-log4j

變更 Pig 的 log4j.properties 檔案中的值。

presto-log

變更 Presto 的 log.properties 檔案中的值。

presto-config

變更 Presto 的 config.properties 檔案中的值。

presto-password-authenticator

變更 Presto 的 password-authenticator.properties 檔案中的值。

presto-env

變更 Presto 的 presto-env.sh 檔案中的值。

presto-node

變更 Presto 的 node.properties 檔案中的值。

presto-connector-blackhole

變更 Presto 的 blackhole.properties 檔案中的值。

presto-connector-cassandra

變更 Presto 的 cassandra.properties 檔案中的值。

presto-connector-hive

變更 Presto 的 hive.properties 檔案中的值。

presto-connector-jmx

變更 Presto 的 jmx.properties 檔案中的值。

presto-connector-kafka

變更 Presto 的 kafka.properties 檔案中的值。

presto-connector-localfile

變更 Presto 的 localfile.properties 檔案中的值。

presto-connector-memory

變更 Presto 的 memory.properties 檔案中的值。

presto-connector-mongodb

變更 Presto 的 mongodb.properties 檔案中的值。

presto-connector-mysql

變更 Presto 的 mysql.properties 檔案中的值。

presto-connector-postgresql

變更 Presto 的 postgresql.properties 檔案中的值。

presto-connector-raptor

變更 Presto 的 raptor.properties 檔案中的值。

presto-connector-redis

變更 Presto 的 redis.properties 檔案中的值。

presto-connector-redshift

變更 Presto 的 redshift.properties 檔案中的值。

presto-connector-tpch

變更 Presto 的 tpch.properties 檔案中的值。

presto-connector-tpcds

變更 Presto 的 tpcds.properties 檔案中的值。

ranger-kms-dbks-site

變更 Ranger KMS 之 dbks-site.xml 檔案中的值。

ranger-kms-site

更改遊俠 KMS 的 ranger-kms-site .xml 文件中的值。

ranger-kms-env

變更 Ranger KMS 環境中的值。

ranger-kms-log4j

變更 Ranger KMS 之 kms-log4j.properties 檔案中的值。

ranger-kms-db-ca

變更 S3 上 CA 檔案的值,以使用 Ranger KMS 進行 MySQL SSL 連線。

recordserver-env

變更 EMR RecordServer 環境中的值。

recordserver-conf

更改 EMR RecordServer 的錯誤. 屬性文件中的值。

recordserver-log4j

變更 EMR RecordServer 的 log4j. 屬性檔案中的值。

spark

Apache Spark 的 Amazon EMR 彙整設定。

spark-defaults

變更 Spark 的 spark-defaults.conf 檔案中的值。

spark-env

變更 Spark 環境中的值。

spark-hive-site

變更 Spark 的 hive-site.xml 檔案中的值

spark-log4j

變更 Spark 中 log4j.properties 檔案的值。

spark-metrics

變更 Spark 中 metrics.properties 檔案的值。

sqoop-env

變更 Sqoop 環境中的值。

sqoop-oraoop-site

在方向 OraOop的 oraoop-site.xml 文件中更改值。

sqoop-site

變更 Sqoop 的 sqoop-site.xml 檔案中的值。

tez-site

變更 Tez 的 tez-site.xml 檔案中的值。

yarn-env

變更 YARN 環境中的值。

yarn-site

變更 YARN 的 yarn-site.xml 檔案中的值。

zeppelin-env

變更 Zeppelin 環境中的值。

zookeeper-config

變更 ZooKeeper的 zoo.cfg 檔案中的值。

zookeeper-log4j

變更 log4j. 屬性 ZooKeeper檔案中的值。