翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon EMRリリース 5.31.0
5.31.0 アプリケーションバージョン
このリリースでは、次のアプリケーションがサポートされています。 Flink
次の表は、Amazon のこのリリースで利用可能なアプリケーションバージョンEMRと、前述の 3 つの Amazon EMRリリース (該当する場合) のアプリケーションバージョンを示しています。
Amazon の各リリースのアプリケーションバージョンの包括的な履歴についてはEMR、以下のトピックを参照してください。
emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | |
---|---|---|---|---|
AWS SDK Java 用 | 1.11.852 | 1.11.759 | 1.11.759 | 1.11.759 |
Python | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 | 2.7、3.7 |
Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 |
AmazonCloudWatchAgent | - | - | - | - |
差分 | - | - | - | - |
Flink | 1.11.0 | 1.10.0 | 1.10.0 | 1.10.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 |
HCatalog | 2.3.7 | 2.3.6 | 2.3.6 | 2.3.6 |
Hadoop | 2.10.0 | 2.8.5 | 2.8.5 | 2.8.5 |
[Hive] | 2.3.7 | 2.3.6 | 2.3.6 | 2.3.6 |
Hudi | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating |
Hue | 4.7.1 | 4.6.0 | 4.6.0 | 4.6.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 |
Livy | 0.7.0 | 0.7.0 | 0.7.0 | 0.7.0 |
MXNet | 1.6.0 | 1.5.1 | 1.5.1 | 1.5.1 |
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 |
Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 |
フェニックス | 4.14.3 | 4.14.3 | 4.14.3 | 4.14.3 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.238.3 | 0.232 | 0.232 | 0.232 |
Spark | 2.4.6 | 2.4.5 | 2.4.5 | 2.4.5 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.1.0 | 1.14.0 | 1.14.0 | 1.14.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (Presto SQL) | - | - | - | - |
Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
5.31.0 リリースノート
次のリリースノートには、Amazon EMRリリース 5.31.0 に関する情報が含まれています。5.30.1 からの変更が含まれています。
初回リリース日: 2020 年 10 月 9 日
最終更新日: 2020 年 10 月 15 日
アップグレード
Amazon Glue コネクタをバージョン 1.13.0 にアップグレードしました
Amazon SageMaker Spark SDKをバージョン 1.4.0 にアップグレード
Amazon Kinesis コネクタをバージョン 3.5.9 にアップグレードしました
バージョン 1.11.852 AWS SDK for Java にアップグレード
Bigtop-tomcat をバージョン 8.5.56 にアップグレードしました
FS EMR をバージョン 2.43.0 にアップグレード
EMR MetricsAndEventsApiGateway クライアントをバージョン 1.4.0 にアップグレード
S3 Dist CP EMR をバージョン 2.15.0 にアップグレード
S3 Select EMR をバージョン 1.6.0 にアップグレード
Flink をバージョン 1.11.0 にアップグレードしました
Hadoop をバージョン 2.10.0 にアップグレードしました
Hive をバージョン 2.3.7 にアップグレードしました
Hudi をバージョン 0.6.0 にアップグレードしました
Hue をバージョン 4.7.1 にアップグレードしました
バージョン 1.1.0 JupyterHub にアップグレード
MXNet をバージョン 1.6.0 にアップグレードしました
OpenCV をバージョン 4.3.0 にアップグレードしました
Presto をバージョン 0.238.3 にアップグレードしました
バージョン 2.1.0 TensorFlow にアップグレード
変更点、機能強化、解決した問題
-
これは、クラスターを正常にスケールアップ/スケールダウンできなかった場合、またはアプリケーション障害が発生した場合に Amazon EMR Scaling の問題を修正するためのリリースです。
Amazon クラスターEMR上のデーモンがYARNノードの状態やノードの状態の収集などのヘルスチェックアクティビティを実行している場合、大規模で使用率の高いクラスターのスケーリングリクエストが失敗する問題を修正しましたHDFS。これは、クラスター上のデーモンがノードのヘルスステータスデータを内部 Amazon EMRコンポーネントに通信できなかったために発生しました。
クラスターEMR上のデーモンが改善され、スケーリングオペレーション中の信頼性を向上させるために IP アドレスが再利用されたときのノードの状態を正しく追跡できるようになりました。
SPARK-29683
。Spark が使用可能なすべてのノードが拒否リストに登録されていると想定していたため、クラスターのスケールダウン中にジョブエラーが発生する問題を修正しました。 YARN-9011
。クラスターのスケールアップまたはスケールダウンを試みたときに、YARN廃止時のレース条件が原因でジョブの失敗が発生する問題を修正しました。 Amazon クラスターEMR上のデーモンと YARN/ の間でノードの状態が常に一貫していることを確認することで、クラスタースケーリング中のステップまたはジョブの失敗の問題を修正しましたHDFS。
Kerberos 認証で有効になっている Amazon クラスターのスケールダウンやステップ送信などのEMRクラスターオペレーションが失敗する問題を修正しました。これは、Amazon クラスターEMR上のデーモンが Kerberos チケットを更新しなかったためです。これは、プライマリノードと安全に通信HDFS/YARN実行するために必要です。
新しい Amazon EMRリリースでは、Amazon の古い の「最大オープンファイル」制限が小さくなり、問題が修正AL2されましたEMR。Amazon EMRリリース 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 以降では、「Max オープンファイル」設定が高い永続的修正が追加されました。
Hive 列統計
は、Amazon EMRバージョン 5.31.0 以降でサポートされています。 コンポーネントのバージョンをアップグレードしました。
EMRFS Amazon 5.31.0 での S3EC V2 サポート。 EMRS3 Java SDKリリース 1.11.837 以降では、暗号化クライアントバージョン 2 (S3EC V2) にさまざまなセキュリティ強化が導入されました。詳細については、次を参照してください。
S3 ブログ投稿: Updates to the Amazon S3 encryption client
。 AWS SDK for Java デベロッパーガイド: 暗号化クライアントと復号クライアントを V2 に移行します。
EMR 管理ガイド: Amazon S3 クライアント側の暗号化 。
暗号化クライアント V1 は、下位互換性SDKのために で引き続き使用できます。
新機能
-
古い AL2 [新しいリリースで修正済み] の「最大オープンファイル」制限を低くします。Amazon EMRリリース: emr-5.30.x、emr-5.31.0、emr-5.32.0、emr-6.0.0、emr-6.1.0、emr-6.2.0 は、Amazon EMRクラスターがデフォルトの で作成されたときの「Max オープンファイル」の ulimit 設定が低い古いバージョンの ofAmazon Linux 2 (AL2) に基づいていますAMI。Amazon EMRリリース 5.30.1、5.30.2、5.31.1、5.32.1、6.0.1、6.1.1、6.2.1、5.33.0、6.3.0 以降には、「Max オープンファイル」設定が高い永続的修正が含まれています。オープンファイルの上限が低いリリースでは、Spark ジョブを送信するときに「Too many open files」というエラーが発生します。影響を受けるリリースAMIでは、Amazon のEMRデフォルトは、「Max オープンファイル」のデフォルトの ulimit 設定が 4096 で、 latestAmazon Linux 2 の 65536 ファイル制限よりも低くなっていますAMI。「最大オープンファイル」の ulimit 設定が低い場合、Spark ドライバーとエグゼキュータが 4096 を超えるファイルを開こうとすると、Spark ジョブが失敗します。この問題を解決するために、Amazon EMRにはクラスターの作成時に ulimit 設定を調整するブートストラップアクション (BA) スクリプトがあります。
この問題の永続的な修正がない古い Amazon EMRバージョンを使用している場合は、次の回避策により、インスタンスコントローラーの ulimit を最大 65536 個のファイルに明示的に設定できます。
コマンドラインから ulimit を明示的に設定する
/etc/systemd/system/instance-controller.service
を編集して、Service セクションに次のパラメータを追加します。LimitNOFILE=65536
LimitNPROC=65536
再起動 InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
ブートストラップアクション (BA) を使用して ulimit を設定する
ブートストラップアクション (BA) スクリプトを使用して、クラスター作成時にインスタンスコントローラーの ulimit を 65536 ファイルに設定することもできます。
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
Amazon EMR5.31.0 では、Lake Formation と統合するクラスターを起動できます。この統合により、 AWS Glue Data Catalog のデータベースとテーブルにきめ細かな列レベルのデータフィルタリングが提供されます。また、エンタープライズアイデンティティシステムから EMR Notebooks または Apache Zeppelin へのフェデレーティッドシングルサインオンも有効にします。詳細については、「Amazon 管理ガイド」の「Amazon EMRと の統合 AWS Lake Formation」を参照してください。 EMR
Amazon EMR with Lake Formation は現在、米国東部 (オハイオ州とバージニア北部)、米国西部 (北カリフォルニアとオレゴン)、アジアパシフィック (ムンバイ、ソウル、シンガポール、シドニー、東京)、カナダ (中部)、欧州 (フランクフルト、アイルランド、ロンドン、パリ、ストックホルム)、南米 (サンパウロ) の 16 AWS リージョンで利用できます。
既知の問題
-
複数のプライマリノードと Kerberos 認証を使用するクラスターの既知の問題
Amazon EMRリリース 5.20.0 以降で複数のプライマリノードと Kerberos 認証を使用してクラスターを実行すると、クラスターがしばらく実行された後に、スケールダウンやステップ送信などのクラスターオペレーションに問題がある可能性があります。期間は、定義した Kerberos チケットの有効期間によって異なります。スケールダウンの問題は、自動スケールダウンリクエストと送信した明示的なスケールダウンリクエストの両方に影響します。その他のクラスターオペレーションも影響を受ける可能性があります。
回避方法:
-
SSH 複数のプライマリノードを持つEMRクラスターのリードプライマリノードへの
hadoop
ユーザーとして。 -
次のコマンドを実行して
hadoop
ユーザーの Kerberos チケットを更新します。kinit -kt <keytab_file> <principal>
通常、キータブファイルは
/etc/hadoop.keytab
にあります。プリンシパルの形式はhadoop/<hostname>@<REALM>
です。
注記
この回避策は、Kerberos チケットが有効になっている期間、効果があります。この期間はデフォルトで 10 時間ですが、Kerberos の設定で構成できます。Kerberos チケットの有効期限が切れたら、上記のコマンドを再実行する必要があります。
-
Amazon 5.31.0 または 5.32.0 を使用するクラスターで EMR AtRestEncryption または HDFS暗号化が有効になっている場合、Hive クエリでは次のランタイム例外が発生します。
TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
Hive パーティションロケーションフォーマットで Spark を使用して Amazon S3 でデータを読み取るときに、Amazon EMRリリース 5.30.0~5.36.0、および 6.2.0~6.9.0 で Spark を実行すると、クラスターがデータを正しく読み取ることができない問題が発生する可能性があります。これは、パーティションに以下の特徴がすべて当てはまる場合に発生する可能性があります。
-
同じテーブルから 2 つ以上のパーティションがスキャンされます。
-
少なくとも 1 つのパーティションディレクトリパスが、少なくとも 1 つの他のパーティションディレクトリパスのプレフィックスです。例えば、
s3://bucket/table/p=a
はs3://bucket/table/p=a b
のプレフィックスです。 -
他のパーティションディレクトリのプレフィックスに続く最初の文字は、
/
文字 (U+002F) より小さい UTF-8 値を持ちます。例えば、s3://bucket/table/p=a b
の a と b の間にあるスペース文字 (U+0020) はこのカテゴリに該当します。非制御文字は他にも 14 個あることに注意してください:!"#$%&‘()*+,-
。詳細については、UTF「-8 エンコーディングテーブル」と「Unicode 文字」を参照してください。
この問題の回避策として、
spark-defaults
分類のspark.sql.sources.fastS3PartitionDiscovery.enabled
設定をfalse
にセットします。-
5.31.0 コンポーネントバージョン
このリリースで Amazon がEMRインストールするコンポーネントを以下に示します。そのうちいくつかは、ビッグデータアプリケーションパッケージの一部としてインストールされます。その他は Amazon に固有でEMR、システムプロセスと機能用にインストールされます。これらは通常、emr
または aws
で開始されます。最新の Amazon EMRリリースのビッグデータアプリケーションパッケージは通常、コミュニティで見つかった最新バージョンです。Amazon では、コミュニティリリースEMRをできるだけ早く利用できるようにします。
Amazon の一部のコンポーネントは、コミュニティバージョンEMRとは異なります。これらのコンポーネントには、
の形式のバージョンラベルがあります。CommunityVersion
-amzn-EmrVersion
は 0 から始まります。例えば、バージョン 2.2 EmrVersion
myapp-component
の という名前のオープンソースコミュニティコンポーネントが、異なる Amazon EMRリリースに含めるために 3 回変更された場合、そのリリースバージョンは としてリストされます2.2-amzn-2
。
コンポーネント | Version | 説明 |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.0 | Amazon SageMaker Spark SDK |
emr-ddb | 4.15.0 | Hadoop エコシステムアプリケーション用の Amazon DynamoDB コネクター。 |
emr-goodies | 2.13.0 | Hadoop エコシステムに役立つ追加のライブラリ。 |
emr-kinesis | 3.5.0 | Hadoop エコシステムアプリケーション用の Amazon Kinesis コネクター。 |
emr-s3-dist-cp | 2.15.0 | Amazon S3 に最適化された分散コピーアプリケーション。 |
emr-s3-select | 1.6.0 | EMR S3Select コネクタ |
emrfs | 2.43.0 | Hadoop エコシステムアプリケーション用の Amazon S3 コネクタ。 |
flink-client | 1.11.0 | Apache Flink のコマンドラインクライアント スクリプトとアプリケーション。 |
flink-jobmanager-config | 1.11.0 | Apache Flink のEMRノード上のリソースの管理 JobManager。 |
ganglia-monitor | 3.7.2 | Ganglia モニタリングエージェントとともに埋め込まれた、Hadoop エコシステムアプリケーション用 Ganglia エージェント。 |
ganglia-metadata-collector | 3.7.2 | Ganglia モニタリングエージェントからメトリクスを集計する Ganglia メタデータコレクター。 |
ganglia-web | 3.7.1 | Ganglia メタデータコレクターによって収集されたメトリクスを表示するウェブアプリケーション。 |
hadoop-client | 2.10.0-amzn-0 | 'hdfs'、'hadoop'、'yarn' などの Hadoop コマンドラインクライアント。 |
hadoop-hdfs-datanode | 2.10.0-amzn-0 | HDFS ブロックを保存するためのノードレベルのサービス。 |
hadoop-hdfs-library | 2.10.0-amzn-0 | HDFS コマンドラインクライアントとライブラリ |
hadoop-hdfs-namenode | 2.10.0-amzn-0 | HDFS ファイル名とブロックの場所を追跡するための サービス。 |
hadoop-hdfs-journalnode | 2.10.0-amzn-0 | HDFS HA クラスターの Hadoop ファイルシステムジャーナルを管理するための サービス。 |
hadoop-httpfs-server | 2.10.0-amzn-0 | HTTP HDFSオペレーションの エンドポイント。 |
hadoop-kms-server | 2.10.0-amzn-0 | Hadoop の に基づく暗号化キー管理サーバー KeyProvider API。 |
hadoop-mapred | 2.10.0-amzn-0 | MapReduce MapReduce アプリケーションを実行するための実行エンジンライブラリ。 |
hadoop-yarn-nodemanager | 2.10.0-amzn-0 | YARN 個々のノードのコンテナを管理するための サービス。 |
hadoop-yarn-resourcemanager | 2.10.0-amzn-0 | YARN クラスターリソースと分散アプリケーションの割り当てと管理のための サービス。 |
hadoop-yarn-timeline-server | 2.10.0-amzn-0 | YARN アプリケーションの現在および履歴情報を取得するためのサービス。 |
hbase-hmaster | 1.4.13 | リージョンの調整と管理コマンドの実行を担当するHBaseクラスターのサービス。 |
hbase-region-server | 1.4.13 | 1 つ以上のHBaseリージョンに対応するサービス。 |
hbase-client | 1.4.13 | HBase コマンドラインクライアント。 |
hbase-rest-server | 1.4.13 | のRESTfulHTTPエンドポイントを提供するサービスHBase。 |
hbase-thrift-server | 1.4.13 | Thrift エンドポイントを に提供するサービスHBase。 |
hcatalog-client | 2.3.7-amzn-1 | hcatalog-server を操作するための 'hcat' コマンドラインクライアント。 |
hcatalog-server | 2.3.7-amzn-1 | 分散アプリケーション用のテーブルとストレージ管理レイヤーHCatalogである を提供するサービス。 |
hcatalog-webhcat-server | 2.3.7-amzn-1 | HTTP にRESTインターフェイスを提供するエンドポイントHCatalog。 |
hive-client | 2.3.7-amzn-1 | Hive コマンドラインクライアント。 |
hive-hbase | 2.3.7-amzn-1 | Hive-hbase クライアント。 |
hive-metastore-server | 2.3.7-amzn-1 | Hadoop オペレーション上の のメタデータを保存するセマンティックリポジトリである Hive SQL メタストアにアクセスするためのサービス。 |
hive-server2 | 2.3.7-amzn-1 | Hive クエリをウェブリクエストとして受け入れるサービス。 |
hudi | 0.6.0-amzn-0 | データパイプラインを強化する低レイテンシーかつ高効率な増分処理フレームワーク。 |
hudi-spark | 0.6.0-amzn-0 | Spark を Hudi で実行するためのバンドルライブラリ。 |
hudi-presto | 0.6.0-amzn-0 | Presto を Hudi で実行するためのバンドルライブラリ。 |
hue-server | 4.7.1 | Hadoop エコシステムアプリケーションを使用してデータを分析するウェブアプリケーション |
jupyterhub | 1.1.0 | Jupyter Notebook のマルチユーザーサーバー |
livy-server | 0.7.0-incubating | REST Apache Spark とやり取りするためのインターフェイス |
nginx | 1.12.1 | nginx [エンジン x] は HTTPおよびリバースプロキシサーバーです |
mahout-client | 0.13.0 | 機械学習用のライブラリ。 |
mxnet | 1.6.0 | フレキシブルかつスケーラブルで、ディープラーニングにおいて効率的なライブラリです。 |
mariadb-server | 5.5.64 | データベースSQLサーバー。 |
nvidia-cuda | 9.2.88 | Nvidia ドライバーと Cuda ツールキット |
oozie-client | 5.2.0 | Oozie コマンドラインクライアント。 |
oozie-server | 5.2.0 | Oozie ワークフローリクエストを受け入れるサービス。 |
opencv | 4.3.0 | オープンソースのコンピュータビジョンライブラリ。 |
phoenix-library | 4.14.3-HBase-1.4 | サーバーとクライアントの Phoenix ライブラリ |
phoenix-query-server | 4.14.3-HBase-1.4 | Avatica JDBCへのアクセスと Protocol Buffers およびJSONフォーマットアクセスを提供する軽量サーバー API |
presto-coordinator | 0.238.3-amzn-0 | presto-worker 間でクエリを受け入れ、クエリの実行を管理するサービス。 |
presto-worker | 0.238.3-amzn-0 | いくつかのクエリを実行するサービス。 |
presto-client | 0.238.3-amzn-0 | Presto サーバーが起動されていない HA クラスターのスタンバイマスターにインストールされる Presto コマンドラインクライアント。 |
pig-client | 0.17.0 | Pig コマンドラインクライアント。 |
r | 3.4.3 | 統計的コンピューティング用 R プロジェクト |
ranger-kms-server | 1.2.0 | Apache Ranger Key Management System |
spark-client | 2.4.6-amzn-0 | Spark コマンドラインクライアント。 |
spark-history-server | 2.4.6-amzn-0 | 完了した Spark アプリケーションの有効期間にログに記録されたイベントを表示するウェブ UI。 |
spark-on-yarn | 2.4.6-amzn-0 | のメモリ内実行エンジンYARN。 |
spark-yarn-slave | 2.4.6-amzn-0 | YARN スレーブに必要な Apache Spark ライブラリ。 |
sqoop-client | 1.4.7 | Apache Sqoop コマンドラインクライアント。 |
tensorflow | 2.1.0 | TensorFlow 高性能数値計算用のオープンソースソフトウェアライブラリ。 |
tez-on-yarn | 0.9.2 | Tez YARNアプリケーションとライブラリ。 |
webserver | 2.4.25+ | Apache HTTPサーバー。 |
zeppelin-server | 0.8.2 | インタラクティブなデータ分析を可能にするウェブベースのノートブック。 |
zookeeper-server | 3.4.14 | 設定情報を維持し、名前を付け、分散化された同期を提供し、グループサービスを提供する一元化されたサービス。 |
zookeeper-client | 3.4.14 | ZooKeeper コマンドラインクライアント。 |
5.31.0 設定分類
設定分類を使用すると、アプリケーションをカスタマイズできます。これらは、多くの場合、 などのアプリケーションの設定XMLファイルに対応しますhive-site.xml
。詳細については、「アプリケーションの設定」を参照してください。
分類 | 説明 |
---|---|
capacity-scheduler | Hadoop の capacity-scheduler.xml ファイルの値を変更します。 |
container-log4j | Hadoop YARNの container-log4j.properties ファイルの値を変更します。 |
core-site | Hadoop の core-site.xml ファイルの値を変更します。 |
emrfs-site | EMRFS 設定を変更します。 |
flink-conf | flink-conf.yaml の設定を変更します。 |
flink-log4j | Flink log4j.properties の設定を変更します。 |
flink-log4j-yarn-session | Flink log4j-yarn-session.properties 設定を変更します。 |
flink-log4j-cli | Flink log4j-cli.properties の設定を変更します。 |
hadoop-env | Hadoop のすべてのコンポーネントに対する Hadoop 環境の値を変更します。 |
hadoop-log4j | Hadoop の log4j.properties ファイルの値を変更します。 |
hadoop-ssl-server | Hadoop ssl のサーバー設定を変更します。 |
hadoop-ssl-client | Hadoop ssl のクライアント設定を変更します。 |
hbase | Apache の Amazon EMRが厳選した設定HBase。 |
hbase-env | HBaseの環境の値を変更します。 |
hbase-log4j | HBaseの hbase-log4j.properties ファイルの値を変更します。 |
hbase-metrics | HBaseの hadoop-metrics2-hbase.properties ファイルの値を変更します。 |
hbase-policy | HBaseの hbase-policy.xml ファイルの値を変更します。 |
hbase-site | HBaseの hbase-site.xml ファイルの値を変更します。 |
hdfs-encryption-zones | HDFS 暗号化ゾーンを設定します。 |
hdfs-site | HDFSの hdfs-site.xml の値を変更します。 |
hcatalog-env | HCatalogの環境の値を変更します。 |
hcatalog-server-jndi | HCatalogの jndi.properties の値を変更します。 |
hcatalog-server-proto-hive-site | HCatalogの proto-hive-site.xml の値を変更します。 |
hcatalog-webhcat-env | HCatalog W ebHCatの環境の値を変更します。 |
hcatalog-webhcat-log4j2 | HCatalog W ebHCatの log4j2.properties の値を変更します。 |
hcatalog-webhcat-site | HCatalog W ebHCatの webhcat-site.xml ファイルの値を変更します。 |
hive-beeline-log4j2 | Hive の beeline-log4j2.properties ファイルの値を変更します。 |
hive-parquet-logging | Hive の parquet-logging.properties ファイルの値を変更します。 |
hive-env | Hive 環境の値を変更します。 |
hive-exec-log4j2 | Hive の hive-exec-log4j2.properties ファイルの値を変更します。 |
hive-llap-daemon-log4j2 | Hive の llap-daemon-log4j2.properties ファイルの値を変更します。 |
hive-log4j2 | Hive の hive-log4j2.properties ファイルの値を変更します。 |
hive-site | Hive の hive-site.xml ファイルの値を変更します |
hiveserver2-site | Hive Server2 の hiveserver2-site.xml ファイルの値を変更します |
hue-ini | Hue の ini ファイルの値を変更します |
httpfs-env | HTTPFS 環境の値を変更します。 |
httpfs-site | Hadoop の httpfs-site.xml ファイルの値を変更します。 |
hadoop-kms-acls | Hadoop の kms-acls.xml ファイルの値を変更します。 |
hadoop-kms-env | Hadoop KMS環境の値を変更します。 |
hadoop-kms-log4j | Hadoop の kms-log4j.properties ファイルの値を変更します。 |
hadoop-kms-site | Hadoop の kms-site.xml ファイルの値を変更します。 |
hudi-env | Hudi 環境の値を変更します。 |
jupyter-notebook-conf | Jupyter Notebook の jupyter_notebook_config.py ファイルの値を変更します。 |
jupyter-hub-conf | JupyterHubsの jupyterhub_config.py ファイルの値を変更します。 |
jupyter-s3-conf | Jupyter Notebook の S3 の永続性を設定します。 |
jupyter-sparkmagic-conf | Sparkmagic の config.json ファイルの値を変更します。 |
livy-conf | Livy の livy.conf ファイルの値を変更します。 |
livy-env | Livy 環境の値を変更します。 |
livy-log4j | Livy の log4j.properties の設定を変更します。 |
mapred-env | MapReduce アプリケーションの環境の値を変更します。 |
mapred-site | MapReduce アプリケーションの mapred-site.xml ファイルの値を変更します。 |
oozie-env | Oozie の環境の値を変更します。 |
oozie-log4j | Oozie の oozie-log4j.properties ファイルの値を変更します。 |
oozie-site | Oozie の oozie-site.xml ファイルの値を変更します。 |
phoenix-hbase-metrics | Phoenix の hadoop-metrics2-hbase.properties ファイルの値を変更します。 |
phoenix-hbase-site | Phoenix の hbase-site.xml ファイルの値を変更します。 |
phoenix-log4j | Phoenix の log4j.properties ファイルの値を変更します。 |
phoenix-metrics | Phoenix の hadoop-metrics2-phoenix.properties ファイルの値を変更します。 |
pig-env | Pig 環境の値を変更します。 |
pig-properties | Pig の pig.properties ファイルの値を変更します。 |
pig-log4j | Pig の log4j.properties ファイルの値を変更します。 |
presto-log | Presto の log.properties ファイルの値を変更します。 |
presto-config | Presto の config.properties ファイルの値を変更します。 |
presto-password-authenticator | Presto の password-authenticator.properties ファイルの値を変更します。 |
presto-env | Presto の presto-env.sh ファイルの値を変更します。 |
presto-node | Presto の node.properties ファイルの値を変更します。 |
presto-connector-blackhole | Presto の blackhole.properties ファイルの値を変更します。 |
presto-connector-cassandra | Presto の cassandra.properties ファイルの値を変更します。 |
presto-connector-hive | Presto の hive.properties ファイルの値を変更します。 |
presto-connector-jmx | Presto の jmx.properties ファイルの値を変更します。 |
presto-connector-kafka | Presto の kafka.properties ファイルの値を変更します。 |
presto-connector-localfile | Presto の localfile.properties ファイルの値を変更します。 |
presto-connector-memory | Presto の memory.properties ファイルの値を変更します。 |
presto-connector-mongodb | Presto の mongodb.properties ファイルの値を変更します。 |
presto-connector-mysql | Presto の musql.properties ファイルの値を変更します。 |
presto-connector-postgresql | Presto の postgresql.properties ファイルの値を変更します。 |
presto-connector-raptor | Presto の raptor.properties ファイルの値を変更します。 |
presto-connector-redis | Presto の redis.properties ファイルの値を変更します。 |
presto-connector-redshift | Presto の redshift.properties ファイルの値を変更します。 |
presto-connector-tpch | Presto の tpcj.properties ファイルの値を変更します。 |
presto-connector-tpcds | Presto の tpcds.properties ファイルの値を変更します。 |
ranger-kms-dbks-site | Ranger の dbks-site.xml ファイルの値を変更しますKMS。 |
ranger-kms-site | Ranger の ranger-kms-site.xml ファイルの値を変更しますKMS。 |
ranger-kms-env | Ranger KMS環境の値を変更します。 |
ranger-kms-log4j | Ranger の kms-log4j.properties ファイルの値を変更しますKMS。 |
ranger-kms-db-ca | Ranger との S3 for MySQL SSL接続の CA ファイルの値を変更しますKMS。 |
recordserver-env | EMR RecordServer 環境の値を変更します。 |
recordserver-conf | EMR RecordServerの erver.properties ファイルの値を変更します。 |
recordserver-log4j | EMR RecordServerの log4j.properties ファイルの値を変更します。 |
spark | Apache Spark の Amazon EMRが厳選した設定。 |
spark-defaults | Spark の spark-defaults.conf ファイルの値を変更します。 |
spark-env | Spark 環境の値を変更します。 |
spark-hive-site | Spark の hive-site.xml ファイルの値を変更します |
spark-log4j | Spark の log4j.properties ファイルの値を変更します。 |
spark-metrics | Spark の metrics.properties ファイルの値を変更します。 |
sqoop-env | Sqoop の環境の値を変更します。 |
sqoop-oraoop-site | Sqoop OraOopの oraoop-site.xml ファイルの値を変更します。 |
sqoop-site | Sqoop の sqoop-site.xml ファイルの値を変更します。 |
tez-site | Tez の tez-site.xml ファイルの値を変更します。 |
yarn-env | YARN 環境の値を変更します。 |
yarn-site | YARNの yarn-site.xml ファイルの値を変更します。 |
zeppelin-env | Zeppelin 環境の値を変更します。 |
zookeeper-config | ZooKeeperの zoo.cfg ファイルの値を変更します。 |
zookeeper-log4j | ZooKeeperの log4j.properties ファイルの値を変更します。 |