Amazon EMR 릴리스 6.0.0 - Amazon EMR

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon EMR 릴리스 6.0.0

6.0.0 애플리케이션 버전

이 릴리스에는 Ganglia, , HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterHub, Livy, MXNet, Oozie, Phoenix, Presto, SparkTensorFlow, Tez및 애플리케이션이 포함되어 Zeppelin있습니다ZooKeeper.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.

애플리케이션 버전 정보
emr-6.1.1 emr-6.1.0 emr-6.0.1 emr-6.0.0
AWS Java용 SDK 1.11.8281.11.8281.11.7111.11.711
Python 2.7, 3.72.7, 3.72.7, 3.72.7, 3.7
Scala 2.12.102.12.102.12.102.11.12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.01.11.0 - -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.52.2.52.2.32.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-10.5.0-incubating-amzn-1
Hue4.7.14.7.14.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub1.1.01.1.01.0.01.0.0
Livy0.7.00.7.00.6.00.6.0
MXNet1.6.01.6.01.5.11.5.1
Mahout - - - -
Oozie5.2.05.2.05.1.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.0 - -
Presto0.2320.2320.2300.230
Spark3.0.03.0.02.4.42.4.4
Sqoop1.4.71.4.7 - -
TensorFlow2.1.02.1.01.14.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino338338 - -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

6.0.0 릴리스 정보

다음 릴리스 정보에는 Amazon EMR 릴리스 6.0.0에 대한 정보가 포함됩니다.

최초 릴리스 날짜: 2020년 3월 10일

지원되는 애플리케이션
  • AWS SDK for Java 버전 1.11.711

  • Ganglia 버전 3.7.2

  • Hadoop 버전 3.2.1

  • HBase 버전 2.2.3

  • HCatalog 버전 3.1.2

  • Hive 버전 3.1.2

  • Hudi 버전 0.5.0-incubating

  • Hue 버전 4.4.0

  • JupyterHub 버전 1.0.0

  • Livy 버전 0.6.0

  • MXNet 버전 1.5.1

  • Oozie 버전 5.1.0

  • Phoenix 버전 5.0.0

  • Presto 버전 0.230

  • Spark 버전 2.4.4

  • TensorFlow 버전 1.14.0

  • Zeppelin 버전 0.9.0-SNAPSHOT

  • Zookeeper 버전 3.4.14

  • 커넥터 및 드라이버: DynamoDB Connector 4.14.0

참고

Flink, Sqoop, Pig 및 Mahout는 Amazon EMR 버전 6.0.0에서만 사용할 수 있습니다.

새로운 특성
  • YARN 도커 런타임 지원 - Spark 작업과 같은 YARN 애플리케이션은 이제 도커 컨테이너의 컨텍스트에서 실행될 수 있습니다. 이를 통해 Amazon EMR 클러스터에 사용자 지정 라이브러리를 설치할 필요 없이 도커 이미지의 종속성을 쉽게 정의할 수 있습니다. 자세한 내용은 Docker 통합 구성Amazon EMR 6.0.0을 사용하여 Docker와 함께 Spark 애플리케이션 실행을 참조하세요.

  • Hive LLAP 지원 - Hive는 이제 향상된 쿼리 성능을 위해 LLAP 실행 모드를 지원합니다. 자세한 내용은 Hive LLAP 사용을 참조하십시오.

변경 사항, 향상된 기능 및 해결된 문제
  • 이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.

  • Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.

  • 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.

  • SPARK-29683. Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.

  • YARN-9011. 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.

  • Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.

  • Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.

  • 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.

  • Amazon Linux

    • Amazon Linux 2는 EMR 6.x 릴리스 시리즈의 운영 체제입니다.

    • systemd는 Amazon Linux 1에서 사용되는 upstart 대신 서비스 관리에 사용됩니다.

  • Java Development Kit(JDK)

    • Coretto JDK 8은 EMR 6.x 릴리스 시리즈의 기본 JDK입니다.

  • Scala

    • Scala 2.12는 Apache Spark 및 Apache Livy와 함께 사용됩니다.

  • Python 3

    • Python 3은 이제 EMR에서 Python의 기본 버전입니다.

  • YAR의 노드 레이블

    • Amazon EMR 6.x 릴리스 시리즈부터 YARN 노드 레이블 기능은 기본적으로 비활성화되어 있습니다. 애플리케이션 마스터 프로세스는 기본적으로 코어 및 작업 노드 모두에서 실행할 수 있습니다. yarn.node-labels.enabledyarn.node-labels.am.default-node-label-expression 속성을 구성하여 YARN 노드 레이블 기능을 활성화할 수 있습니다. 자세한 내용은 프라이머리, 코어 및 태스크 노드 이해를 참조하세요.

알려진 문제
  • 이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨]. Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

    이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

    명령줄에서 ulimit를 명시적으로 설정합니다.
    1. /etc/systemd/system/instance-controller.service를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. InstanceController 다시 시작

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    부트스트랩 작업(BA)을 사용하여 ulimit 설정

    클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • PySpark, SparkR 및 spark-shell을 포함한 Spark 대화형 셸은 도커를 추가 라이브러리와 함께 사용하는 것을 지원하지 않습니다.

  • Amazon EMR 버전 6.0.0에서 Python 3을 사용하려면 yarn.nodemanager.env-whitelistPATH를 추가해야 합니다.

  • Glue 데이터 카탈로그를 Hive의 AWS 메타스토어로 사용하는 경우 LLAP(Live Long and Process) 기능이 지원되지 않습니다.

  • Spark 및 Docker 통합과 함께 Amazon EMR 6.0.0을 사용하는 경우 Docker 런타임으로 Spark 작업을 제출할 때 실패를 방지하기 위해 클러스터의 인스턴스를 동일한 인스턴스 유형과 동일한 크기의 EBS 볼륨으로 구성해야 합니다.

  • Amazon EMR 6.0.0의 경우 Amazon S3 스토리지 모드에서 HBase는 HBASE-24286 문제의 영향을 받습니다. 기존 S3 데이터를 사용하여 클러스터를 생성할 때는 HBase 마스터를 초기화할 수 없습니다.

  • 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

    Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

    해결 방법:

    • 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 hadoop 사용자로 SSH 연결합니다.

    • 다음 명령을 실행하여 hadoop 사용자의 Kerberos 티켓을 갱신합니다.

      kinit -kt <keytab_file> <principal>

      일반적으로 keytab 파일은 /etc/hadoop.keytab에 있으며, 보안 주체는 hadoop/<hostname>@<REALM> 양식입니다.

    참고

    이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

6.0.0 구성 요소 버전

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 CommunityVersion-amzn-EmrVersion 양식의 버전 레이블이 있습니다. EmrVersion은 0에서 시작합니다. 예를 들어, 버전 2.2의 myapp-component라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 2.2-amzn-2로 나열됩니다.

구성 요소 버전 설명
aws-sagemaker-spark-sdk1.2.6Amazon SageMaker Spark SDK
emr-ddb4.14.0하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터
emr-goodies3.0.0편리한 하둡 에코시스템용 추가 라이브러리
emr-kinesis3.5.0하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터.
emr-s3-dist-cp2.14.0Amazon S3용으로 최적화된 분사 복사 애플리케이션.
emr-s3-select1.5.0EMR S3Select 커넥터
emrfs2.39.0하둡 에코시스템 애플리케이션용 Amazon S3 커넥터.
ganglia-monitor3.7.2하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트.
ganglia-metadata-collector3.7.2Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기.
ganglia-web3.7.1Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션.
hadoop-client3.2.1-amzn-0'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트
hadoop-hdfs-datanode3.2.1-amzn-0블록을 저장하는 HDFS 노드 수준 서비스
hadoop-hdfs-library3.2.1-amzn-0HDFS 명령줄 클라이언트 및 라이브러리
hadoop-hdfs-namenode3.2.1-amzn-0파일 이름 및 블록 위치를 추적하는 HDFS 서비스
hadoop-hdfs-journalnode3.2.1-amzn-0HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스
hadoop-httpfs-server3.2.1-amzn-0HDFS 작업에 대한 HTTP 엔드포인트
hadoop-kms-server3.2.1-amzn-0하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버
hadoop-mapred3.2.1-amzn-0MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리
hadoop-yarn-nodemanager3.2.1-amzn-0개별 노드의 컨테이너를 관리하는 YARN 서비스
hadoop-yarn-resourcemanager3.2.1-amzn-0클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스
hadoop-yarn-timeline-server3.2.1-amzn-0YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스
hbase-hmaster2.2.3리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스
hbase-region-server2.2.3한 개 이상의 HBase 리전에 서비스를 제공하는 서비스
hbase-client2.2.3HBase 명령줄 클라이언트
hbase-rest-server2.2.3HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스
hbase-thrift-server2.2.3HBase에 Thrift 엔드포인트를 제공하는 서비스
hcatalog-client3.1.2-amzn-0hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트
hcatalog-server3.1.2-amzn-0분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스
hcatalog-webhcat-server3.1.2-amzn-0HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트
hive-client3.1.2-amzn-0Hive 명령줄 클라이언트
hive-hbase3.1.2-amzn-0Hive-hbase 클라이언트
hive-metastore-server3.1.2-amzn-0하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스
hive-server23.1.2-amzn-0Hive 쿼리를 웹 요청으로 수락하기 위한 서비스
hudi0.5.0-incubating-amzn-1짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크.
hudi-presto0.5.0-incubating-amzn-1Hudi로 Presto를 실행하기 위한 번들 라이브러리.
hue-server4.4.0하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션.
jupyterhub1.0.0Jupyter 노트북용 다중 사용자 서버
livy-server0.6.0-incubatingApache Spark와 상호작용하기 위한 REST 인터페이스
nginx1.12.1HTTP인 nginx [engine x] 및 역방향 프록시 서버
mxnet1.5.1유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리.
mariadb-server5.5.64 이상MariaDB 데이터베이스 서버.
nvidia-cuda9.2.88Nvidia 드라이버와 Cuda 도구 키트
oozie-client5.1.0Oozie 명령줄 클라이언트
oozie-server5.1.0Oozie 워크플로 요청을 수락하는 서비스
opencv3.4.0오픈 소스 컴퓨터 비전 라이브러리.
phoenix-library5.0.0-HBase-2.0서버 및 클라이언트의 phoenix 라이브러리
phoenix-query-server5.0.0-HBase-2.0Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버
presto-coordinator0.230presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스.
presto-worker0.230여러 쿼리를 실행하는 서비스.
presto-client0.230Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트.
r3.4.3통계 컴퓨팅용 R 프로젝트
spark-client2.4.4Spark 명령줄 클라이언트.
spark-history-server2.4.4완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI.
spark-on-yarn2.4.4YARN용 인 메모리 실행 엔진.
spark-yarn-slave2.4.4YARN 슬레이브에서 필요한 Apache Spark 라이브러리.
tensorflow1.14.0TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다.
tez-on-yarn0.9.2tez YARN 애플리케이션 및 라이브러리.
webserver2.4.41 이상Apache HTTP 서버.
zeppelin-server0.9.0-SNAPSHOT대화형 데이터 분석이 가능한 웹 기반 노트북
zookeeper-server3.4.14구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스.
zookeeper-client3.4.14ZooKeeper 명령줄 클라이언트.

6.0.0 구성 분류

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 애플리케이션 구성 단원을 참조하십시오.

emr-6.0.0 분류
분류 설명

capacity-scheduler

하둡 capacity-scheduler.xml 파일의 값을 변경합니다.

container-executor

하둡 YARN의 container-executor.cfg 파일의 값을 변경합니다.

container-log4j

하둡 YARN의 container-log4j.properties 파일의 값을 변경합니다.

core-site

하둡 core-site.xml 파일의 값을 변경합니다.

emrfs-site

EMRFS 설정을 변경합니다.

hadoop-env

모든 하둡 구성 요소에 대한 하둡 환경의 값을 변경합니다.

hadoop-log4j

하둡 log4j.properties 파일의 값을 변경합니다.

hadoop-ssl-server

hadoop ssl 서버 구성을 변경합니다.

hadoop-ssl-client

hadoop ssl 클라이언트 구성을 변경합니다.

hbase

Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다.

hbase-env

HBase 환경의 값을 변경합니다.

hbase-log4j

HBase hbase-log4j.properties 파일의 값을 변경합니다.

hbase-metrics

HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

hbase-policy

HBase hbase-policy.xml 파일의 값을 변경합니다.

hbase-site

HBase hbase-site.xml 파일의 값을 변경합니다.

hdfs-encryption-zones

HDFS 암호화 영역을 구성합니다.

hdfs-env

HDFS 환경의 값을 변경합니다.

hdfs-site

HDFS hdfs-site.xml의 값을 변경합니다.

hcatalog-env

HCatalog 환경의 값을 변경합니다.

hcatalog-server-jndi

HCatalog jndi.properties 환경의 값을 변경합니다.

hcatalog-server-proto-hive-site

HCatalog proto-hive-site.xml의 값을 변경합니다.

hcatalog-webhcat-env

HCatalog WebHCat 환경의 값을 변경합니다.

hcatalog-webhcat-log4j2

HCatalog WebHCat log4j2.properties의 값을 변경합니다.

hcatalog-webhcat-site

HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다.

hive

Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다.

hive-beeline-log4j2

Hive beeline-log4j2.properties 파일의 값을 변경합니다.

hive-parquet-logging

Hive parquet-logging.properties 파일의 값을 변경합니다.

hive-env

Hive 환경의 값을 변경합니다.

hive-exec-log4j2

Hive hive-exec-log4j2.properties 파일의 값을 변경합니다.

hive-llap-daemon-log4j2

Hive llap-daemon-log4j2.properties 파일의 값을 변경합니다.

hive-log4j2

Hive hive-log4j2.properties 파일의 값을 변경합니다.

hive-site

Hive hive-site.xml 파일의 값을 변경합니다.

hiveserver2-site

Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다.

hue-ini

Hue ini 파일의 값을 변경합니다.

httpfs-env

HTTPFS 환경의 값을 변경합니다.

httpfs-site

하둡 httpfs-site.xml 파일의 값을 변경합니다.

hadoop-kms-acls

하둡 kms-acls.xml 파일의 값을 변경합니다.

hadoop-kms-env

하둡 KMS 환경의 값을 변경합니다.

hadoop-kms-log4j

하둡 kms-log4j.properties 파일의 값을 변경합니다.

hadoop-kms-site

하둡 kms-site.xml 파일의 값을 변경합니다.

jupyter-notebook-conf

Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다.

jupyter-hub-conf

JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다.

jupyter-s3-conf

Jupyter Notebook S3 지속성 구성

jupyter-sparkmagic-conf

Sparkmagic의 config.json 파일의 값을 변경합니다.

livy-conf

Livy의 livy.conf 파일의 값을 변경합니다.

livy-env

Livy 환경의 값을 변경합니다.

livy-log4j

Livy log4j.properties 설정을 변경합니다.

mapred-env

MapReduce 애플리케이션 환경의 값을 변경합니다.

mapred-site

MapReduce 애플리케이션 mapred-site.xml 파일의 값을 변경합니다.

oozie-env

Oozie 환경의 값을 변경합니다.

oozie-log4j

Oozie oozie-log4j.properties 파일의 값을 변경합니다.

oozie-site

Oozie oozie-site.xml 파일의 값을 변경합니다.

phoenix-hbase-metrics

Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다.

phoenix-hbase-site

Phoenix hbase-site.xml 파일의 값을 변경합니다.

phoenix-log4j

Phoenix log4j.properties 파일의 값을 변경합니다.

phoenix-metrics

Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다.

presto-log

Presto log.properties 파일의 값을 변경합니다.

presto-config

Presto config.properties 파일의 값을 변경합니다.

presto-password-authenticator

Presto의 password-authenticator.properties 파일의 값을 변경합니다.

presto-env

Presto의 presto-env.sh 파일에서 값을 변경합니다.

presto-node

Presto의 node.properties 파일에서 값을 변경합니다.

presto-connector-blackhole

Presto blackhole.properties 파일의 값을 변경합니다.

presto-connector-cassandra

Presto cassandra.properties 파일의 값을 변경합니다.

presto-connector-hive

Presto hive.properties 파일의 값을 변경합니다.

presto-connector-jmx

Presto jmx.properties 파일의 값을 변경합니다.

presto-connector-kafka

Presto kafka.properties 파일의 값을 변경합니다.

presto-connector-localfile

Presto localfile.properties 파일의 값을 변경합니다.

presto-connector-memory

Presto memory.properties 파일의 값을 변경합니다.

presto-connector-mongodb

Presto mongodb.properties 파일의 값을 변경합니다.

presto-connector-mysql

Presto mysql.properties 파일의 값을 변경합니다.

presto-connector-postgresql

Presto postgresql.properties 파일의 값을 변경합니다.

presto-connector-raptor

Presto raptor.properties 파일의 값을 변경합니다.

presto-connector-redis

Presto redis.properties 파일의 값을 변경합니다.

presto-connector-redshift

Presto redshift.properties 파일의 값을 변경합니다.

presto-connector-tpch

Presto tpch.properties 파일의 값을 변경합니다.

presto-connector-tpcds

Presto tpcds.properties 파일의 값을 변경합니다.

ranger-kms-dbks-site

Ranger KMS에서 dbks-site.xml 파일의 값을 변경합니다.

ranger-kms-site

Ranger KMS에서 ranger-kms-site.xml 파일의 값을 변경합니다.

ranger-kms-env

Ranger KMS 환경의 값을 변경합니다.

ranger-kms-log4j

Ranger KM에서 kms-log4j.properties 파일의 값을 변경합니다.

ranger-kms-db-ca

Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다.

recordserver-env

EMR RecordServer 환경의 값을 변경합니다.

recordserver-conf

EMR RecordServer의 erver.properties 파일의 값을 변경합니다.

recordserver-log4j

EMR RecordServer의 log4j.properties 파일의 값을 변경합니다.

spark

Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다.

spark-defaults

Spark spark-defaults.conf 파일의 값을 변경합니다.

spark-env

the Spark 환경의 값을 변경합니다.

spark-hive-site

Spark hive-site.xml 파일의 값을 변경합니다.

spark-log4j

Spark log4j.properties 파일의 값을 변경합니다.

spark-metrics

Spark metrics.properties 파일의 값을 변경합니다.

tez-site

Tez tez-site.xml 파일의 값을 변경합니다.

yarn-env

YARN 환경의 값을 변경합니다.

yarn-site

YARN yarn-site.xml 파일의 값을 변경합니다.

zeppelin-env

Zeppelin 환경의 값을 변경합니다.

zookeeper-config

ZooKeeper zoo.cfg 파일의 값을 변경합니다.

zookeeper-log4j

ZooKeeper log4j.properties 파일의 값을 변경합니다.